cwbe coordinatez:
101
63533
63608
8771344
9052365
9052379
9052380
9052390
9052408
9052562
9052715
9052927

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
commanders
polls

total descendants::0
total children::0
1 ❤️


show[ 2 | 3] flat


GPTcka pracuju s tzv. "word embeddings" kedy je vyznam slova ci frazy premietnuty do N-rozmerneho priestoru kde tak ako mysel dobreho basnika aj ony mozu uskutocnovat geometricke operacie suvisiace s javmi ktore v tradicnej literarnej teorii oznacujeme slovami ako "metafora" a to co ty nazyvas "prenesenym vyznamom". *

(A to este nehovorim o tzv. "attention-based" layers.)

Fazit: Tak ako pise drakh nizsie, nieje problem aby sa GPTcka naucili pracovat s metaforami pretoze advanced GPT modely niesu nicim inym ako generatormi metafor.

* v pripade ze by Ta zaujimalo ako taka "geometrizacia vyznamu" prebieha, mozes zacat napr. na strankach 134-135 mojej Prolegomena Paedagogica