cwbe coordinatez:
101
63533
63608
8771344
9052676
9052689

ABSOLUT
KYBERIA
permissions
you: r,
system: public
net: yes

neurons

stats|by_visit|by_K
source
tiamat
K|my_K|given_K
last
commanders
polls

total descendants::9
total children::2
show[ 2 | 3] flat


Po tomto este odporucam popocuvat Yudkowskeho na zvysenie existencionalnej uzkosti (prvych 10 minut treba preskocit, vykecavaju sa tam autori).





00000101000635330006360808771344090526760905268909052857
losmonos
 losmonos      31.03.2023 - 14:14:14 , level: 1, UP   NEW
chudacik, ako bol posraty z rokovho baziliska...

00000101000635330006360808771344090526760905268909052716
vposled [locked out]
 vposled [locked out]      31.03.2023 - 00:29:38 , level: 1, UP   NEW
ti dvaja su z neho strasne nadrzani.
tu je eliezer u lexa a je menej presvedcivy a viac divny.
https://www.youtube.com/watch?v=AaTRHFaaPG8&list=PLrAXtmErZgOdP_8GztsuKi9nrraNbKKp4&index=1

ja s nim nesuhlasim, on si AIG predstavuje antropomorne, ako keby to bola nejaka smrtelna existencia, ktora sa chce rozmnozovat a viest kvoli tomu vojny.

0000010100063533000636080877134409052676090526890905271609052773
twoclicks
 twoclicks      31.03.2023 - 10:47:33 , level: 2, UP   NEW
ja s nim tiez nesuhlasim, ale to co pises, netvrdi. naopak povazuje vsetky antroporfizujuce uvahy o tomto probleme (ktore v tej debate romanticky reprezentuje prave Lex) za uplne naivne

000001010006353300063608087713440905267609052689090527160905277309052851
vposled [locked out]
 vposled [locked out]      31.03.2023 - 13:50:05 , level: 3, UP   NEW
A nie je ten motiv ze ai bude chciet znicit ludstvo antropomorfny? Vysvetluje niekde elizier preco si mysli ze by takyto zamer mala ai mat?

00000101000635330006360808771344090526760905268909052716090527730905285109053023
StiX
 StiX      01.04.2023 - 13:59:39 (modif: 01.04.2023 - 13:59:50), level: 4, UP   NEW !!CONTENT CHANGED!!
AI alignment je ale velmi relevantna a podstatna vec. Ved cela openAI company bola zalozena prave preto aby sa venovali tomuto problemu, fakt je to existencionalny risk. Jedine co je trochu za ciarou je podla mna prehanat ake schopnosti ma gpt4, moze to byt sucast buducnosti v AI ale ma to hrozne daleko od general inteligence.

Aj zakladne machine learning modely dokazu robit ultra divne a neocakavane veci ked je mismatch s alignmentom. Nie je uplne tazke pochopit ze vysoka inteligencia sa nerovna moralnost, a moralnost moze byt to co si predstavujes ako alignment.

Tak isto ako je to AI pre nas tool / vec, mozme byt my tool/vec pre to AI.

Podla mna je super na tuto temu tento typek, odporucam aj jeho youtube channel:

https://www.youtube.com/watch?v=92qDfT8pENs

00000101000635330006360808771344090526760905268909052716090527730905285109052862
twoclicks
 twoclicks      31.03.2023 - 14:39:37 [2K] , level: 4, UP   NEW
myslim, ze hlavna linia jeho argumentu je, ze akonahle bude nejaky tych systemov superinteligentny, nebude mozne kontrolovat jeho alignment a bude si robit co chce/optimalizovat svoju vlastnu vec (to mi inak sedi)... a nech je to uz cokolvek, pravdepodobne nieco, comu budeme rozumiet asi tak ako rozumeju simpanzy nasim elektrarnam a poda Judkowskeho statisticky v drvivej vacsine tych optimalizacnych senarov nefiguruje ludstvo ako prezivsie, nie z nejakych antropomorfnych "snah o nadvladu nad X/porazku X a pod." ale proste "math of the situation checks out that way".
konkretne tento "statisticky" argument je dost pritiahnuty za vlasy a hystericky, ak by som si mal tipnut, vo vacsine tych optimalizacnych scenraov je ludstvo non-faktor, ak ta superinteligencia vznikne, do par dni nas bude mat na haku a transcenduje do pice prec od nasich grotesknych survival games (nieco ako koniec Her mi pride pravdepodobnejsie ako ranty na lesswrong).

0000010100063533000636080877134409052676090526890905271609052773090528510905286209052893
vposled [locked out]
 vposled [locked out]      31.03.2023 - 16:16:22 , level: 5, UP   NEW
eliezer posobi tak ze to ma vsetko dopredu uz premyslene ale presne toto mi nedavalo zmysel to som ani nevedel ze nejaky zamer superintelegicie vyvodzuje zo statistickeho argumentu. kus je paranoidny nie? napriklad sa stazoval ze open ai bezi na microsoft cloudoch ako keby to uz bolo riziko ze sa nas moze odtial napadnut a sirit sa volne po nete. asi by to mali vyvijat na diskete

000001010006353300063608087713440905267609052689090527160905277309052851090528620905289309052906
twoclicks
 twoclicks      31.03.2023 - 16:50:37 , level: 6, UP   NEW
s tou disketou nie si tak daleko...

Shut down all the large GPU clusters (the large computer farms where the most powerful AIs are refined). Shut down all the large training runs. Put a ceiling on how much computing power anyone is allowed to use in training an AI system, and move it downward over the coming years to compensate for more efficient training algorithms. No exceptions for anyone, including governments and militaries. Make immediate multinational agreements to prevent the prohibited activities from moving elsewhere. Track all GPUs sold. If intelligence says that a country outside the agreement is building a GPU cluster, be less scared of a shooting conflict between nations than of the moratorium being violated; be willing to destroy a rogue datacenter by airstrike.
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

00000101000635330006360808771344090526760905268909052716090527730905285109052862090528930905290609052954
vposled [locked out]
 vposled [locked out]      31.03.2023 - 22:27:57 , level: 7, UP   NEW
a co vlastne nasho eliezera tak nastartovalo? hoci sa ai exponencialne zlepsuje, stale len plni ulohy, ktore jej zadame. bol tam nejaky nebezpecny leap? sam altman v tom interview hovori ze chatgpt je len komercializacia a ze medzi gpt 3 a gpt 4 neni ziaden vyznamny milnik, je to vylepsena predosla verzia.