cwbe coordinatez:
101
63540
63541
1834976
9058425
9058426
9058518
9059444

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
commanders
polls

total descendants::0
total children::0
2 ❤️


show[ 2 | 3] flat


co sa tyka tych "nenural" features plati ze cim viac jadier a cim viac VRAM tym lepsie. Hlavne by som sa zameral na tu VRAM.

Ked som si robil lokalny test stable diffusion lokalne tak som sa dostal max na 512x512px, do VRAM sa musi zmesit model, vysledny obrazok a este nejake chujoviny navyse. Takze zavisi aj od velkosti toho modelu, ze kolko VRAM budes potrebovat. s vyhladom do buducnosti teda grafiku s co najviac VRAM.

Ak sa bezi nejaky ML na cpu tak to bezi sakra pomalsie - lebo vsak nemozes porovnavat pocet jadier CPU a GPU, ale tak pri CPU nie si limitovany tou VRAM ale iba tym kolko mas RAM.

Co sa tyka toho co spomina ulkas, tak tie TPU su zaujimave hlavne pre trening, aku su to low energy cores tak samozrejme to znizuje naklady na trenovanie modelu cez cutovanie costs na energie.
Okrem toho tie specializovane grafiky maju podstatne viac VRAM, trenovanie je viac narocne na pamat ako len "samplovanie" z modelu, kedze na efektivne trenovanie okrem modelu do vram chces vtesnat aj trenovacie data, idealne co najviac nech sa nestraca rychlost pri kopirovani z RAM do VRAM atd. Ked vsak porovnas tieto speci grafiky, tak v hrubej sile su slabsie ako herne grafiky, ale su stavane prave na dlhodobu kontinualnu zataz s nizkou spotrebou energie.

Tu to Linus pekne ukazuje