cwbe coordinatez:
101
63533
63608
8771344
9057600

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
commanders
polls

total descendants::0
total children::0
4 ❤️


show[ 2 | 3] flat


Vysiel dalsi language model ktory sa da bezat lokalne -- StableLM od stability.ai. Zatial su vonkud alfa verzie s 3B a 7B parametrami, planuju vydat verzie az po 65B parametrov.

Pouziva kontext 4096 tokenov, co je 2x viac ako llama (a rovnako vela ako gpt3.5), kvalita je zatial nejasna, ich press release, github ani huggingface nema ziadne benchmarky, na hackernews ludia rozoberaju prve pozorovania/dojmy.

Existuje aj online demo tej 7B verzie, kvalita samozrejme neporovnatelna s gpt 3.5/4, ale v tomto pripade je samozrejme dolezitejsie ake to je v porovnani s inymi lokalnymi modelmi a hlavne ako velmi sa toho chyti komunita a zacne budovat veci nad tym (tools, finetuning...). Narozdiel od llama toto nie je leaknuty model, takze okrem komunity sa da ocakavat aj podpora/updaty od stability.ai.

announcement
GitHub
huggingface

(ps: dufam ze to tu nie je offtopic, kludne to mozem preparentovat do "umela inteligencia", ale zda sa mi lepsie drzat vsetky (L)LM diskusie pokope a hlavne forum pouzivat na catch-all, ale ako hovorim kludne sa preparentujem ak toto ma byt gpt only)