total descendants::2 total children::1 |
1. jeez, stale nechapes. Prvotna chyba je v tvojom prompte. Lebo si mu zadal ulohu: "Zhrn preco vies urobit A a nevies urobit B". Tym si mu zadal celkom jasnu ulohu, a model spravil v zasade presne to o co si ho poziadal. Uz na tom sa ukazuje ako model vies pisat bludy, lebo si dostal priklad, ktory povodnu ulohu kontradikoval "Zhr preco vies urobit B a nevies urobit A", a tam spravil presne to iste. Splnil ulohu, popisal preco vuie urobit B a nevie urobit A, neodpovedalo to ze "sorry B urobit neviem, ale viem urobit A". Preto je to "dumb" to je to o com ti hovori. 2. Data na ktorych sa to uci su "poisoned". Na vsetky ezo temy v zdrojovych datach kvantitou prevladaju "nevedecke" texty. Vedeckych textov, ktore temu rozoberaju a fakticky rozoberaju tam oproti nim bude minimum. Takze model v zasade "odignoruje" tie seriozne texty. V zasade sa sprava ako "dezolat", ktory vidi vo svojej bubline dostava kvantitativne ovela viac inputov potvrdzujucich jeho videnie sveta a realne argumenty ktorych dostane kvantitativne ovela menej tympadom v zasade odignoruje. e: Ked tychto 5 promptov preformulujes tak ako by sa ich pytal "plochozemec" ktory si chce potvrdit svoje videnie sveta tak mu odpovie tak ze mu ich potvrdi. A keby plochozemske texty v zasadnom nepomere prevladali nad faktami na ktorych je vedecky konsenzus, tak ti odpovie ako plochozemec ked mu polozis otazku aj takto ako si ich polozil, a musel by si ju polozit ako "neplochozemec" aby ti odpovedal faktami. |
| |||||||||||||||||||||||||