cwbe coordinatez:
101
63540
63541
1834976
9058425
9058426
9058518

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
K|my_K|given_K
last
commanders
polls

total descendants::4
total children::2
show[ 2 | 3] flat


no bol by som rad, keby aspon 10 :) v priebehu toho nejaky upgrade, viac RAM, rychlejsi procak, novsia grafika

uz teraz pridali do PS nejake Neural Filters, nemal som zatial velmi cas sa s tym pohrat, skusal som len superzoom, co by ti malo nejak kvalitnejsie zvacsit obrazok, robilo to 15 minut a nakoniec to vyhlasilo, ze "unable" dokoncit operaciu :)

neviem co tieto "inteligentne" funkcie vyzadovbat, povedal by som, ze CPU




0000010100063540000635410183497609058425090584260905851809059444
drakh
 drakh      28.04.2023 - 09:51:03 [2K] , level: 1, UP   NEW
co sa tyka tych "nenural" features plati ze cim viac jadier a cim viac VRAM tym lepsie. Hlavne by som sa zameral na tu VRAM.

Ked som si robil lokalny test stable diffusion lokalne tak som sa dostal max na 512x512px, do VRAM sa musi zmesit model, vysledny obrazok a este nejake chujoviny navyse. Takze zavisi aj od velkosti toho modelu, ze kolko VRAM budes potrebovat. s vyhladom do buducnosti teda grafiku s co najviac VRAM.

Ak sa bezi nejaky ML na cpu tak to bezi sakra pomalsie - lebo vsak nemozes porovnavat pocet jadier CPU a GPU, ale tak pri CPU nie si limitovany tou VRAM ale iba tym kolko mas RAM.

Co sa tyka toho co spomina ulkas, tak tie TPU su zaujimave hlavne pre trening, aku su to low energy cores tak samozrejme to znizuje naklady na trenovanie modelu cez cutovanie costs na energie.
Okrem toho tie specializovane grafiky maju podstatne viac VRAM, trenovanie je viac narocne na pamat ako len "samplovanie" z modelu, kedze na efektivne trenovanie okrem modelu do vram chces vtesnat aj trenovacie data, idealne co najviac nech sa nestraca rychlost pri kopirovani z RAM do VRAM atd. Ked vsak porovnas tieto speci grafiky, tak v hrubej sile su slabsie ako herne grafiky, ale su stavane prave na dlhodobu kontinualnu zataz s nizkou spotrebou energie.

Tu to Linus pekne ukazuje


0000010100063540000635410183497609058425090584260905851809058541
ulkas
 ulkas      24.04.2023 - 16:26:33 , level: 1, UP   NEW
praveze sa posledne roky specializuju na to cipy, vola sa to tensor core u nvidie, ale vo vseobecnosti sa to nazyva TPU:
https://openmetal.io/docs/product-guides/private-cloud/tpu-vs-gpu-pros-and-cons/

cize su to samostatna kategoria vykonnych cipov optimalizovanych na AI ulohy, specialne neuronove siete akymi GPT veci su. nemam ale prehlad, ci existuje aj hybridna consumer grafika, ktora by pokryvala aj GPU sektor aj TPU sektor, alebo na to treba vzdy speci kartu. toto som ti chcel poradit, aby si aspon preskumal, ci je to nejakym sposobom dostupne a vhodne pre teba

000001010006354000063541018349760905842509058426090585180905854109058544
ulkas
 ulkas      24.04.2023 - 16:32:37 , level: 2, UP   NEW
napriklad tu:
https://timdettmers.com/2023/01/30/which-gpu-for-deep-learning/


problem je ale, ze tam opisuju karty na samotne trenovanie asi, a nie end level consumer karty na pouzivanie uz natrenovanych softwarov, akym bude (alebo uz je) aj photoshop. v tomto uz nemam vobec prehlad

00000101000635400006354101834976090584250905842609058518090585410905854409059446
drakh
 drakh      28.04.2023 - 09:55:03 , level: 3, UP   NEW
tak ano na trening su trochu ine poziadavky ako na sampling.

ak sa pozrieme na karpatyho github https://github.com/karpathy/nanoGPT

..."8X A100 40GB node".. ..."This will run for about 4 days"

Tam uz celkom pocitis rozdiel ci mas low consumption karty alebo nenazranu gejmerske (ktore ani nemavaju tolko VRAM)