Can we build AI without losing control over it? | Sam Harris
Prevodilac: Vesna Radovic Lektor: Mile Živković
Pričaću vam o porazu intuicije
od koga mnogi patimo.
Zista je porazno opaziti određenu vrstu opasnosti.
Opisaću vam jedan scenario
za koji mislim da je i zastrašujuć
i koji se realno može dogoditi,
a to, kako se čini,
nije dobra kombinacija.
A opet umesto da se uplaše, mnogi od vas će misliti
da je ono o čemu pričam nešto kul.
Opisaću vam kako bi napredak koji pravimo
u veštačkoj inteligenciji
mogao na kraju da nas uništi.
Zapravo, mislim da je jako teško zamisliti kako nas neće uništiti,
ili navesti da se samouništimo.
A opet ako ste imalo kao ja,
shvatićete da je zabavno razmišljati o ovim stvarima.
I taj odgovor je deo ovog problema.
OK? Taj odgovor treba da vas brine.
Kad bih vas u ovom govoru ubedio
da ćemo vrlo verovatno globalno gladovati,
bilo zbog klimatskih promena ili neke druge katastrofe,
i da će vaši unuci, ili njihovi unuci,
vrlo verovatno živeti ovako,
ne biste mislili:
"Zanimljivo.
Dobar ovaj TED Talk."
Glad nije zabavna.
Smrt u naučnoj fantastici, sa druge strane, jeste zabavna, i nešto što me najviše brine u ovom trenutku u vezi sa razvojem VI
je što izgleda da ne možemo da pružimo odgovarajući emocionalni odgovor
na opasnosti koje dolaze.
Ni ja ne mogu da pružim ovaj odgovor, a držim ovaj govor.
To je kao da stojimo ispred dvoja vrata.
Iza vrata broj jedan,
zaustavljamo napredak u pravljenju inteligentnih mašina.
Kompjuterski hardver i softver prosto prestaju da budu bolji iz nekog razloga.
Sada na trenutak razmislite zašto bi se ovo moglo desiti.
Mislim, s obzirom koliku vrednost imaju inteligencija i automatizacija,
nastavićemo da unapređujemo tehnologiju ako smo uopšte kadri za to.
Šta bi nas moglo sprečiti u tome?
Svetski nuklearni rat?
Globalna pandemija?
Pad asteroida?
Ako Džastin Biber postane predsednik Amerike?
(Smeh)
Poenta je u tome, da bi nešto moralo da uništi civilizaciju ovakvu kakva je.
Morate zamisliti kako bi zaista loše moralo biti to
što bi nas trajno sprečilo da unapređujemo,
tehnologiju,
generaciju za generacijom.
Skoro po definiciji, ovo je najgora stvar
koja se ikada desila u ljudskoj istoriji.
Pa je jedina alternativa,
a ovo se nalazi iza vrata broj dva,
da nastavimo da unapređujemo naše inteligentne mašine
bez prestanka.
U jednom trenutku, napravićemo mašine koje su pametnije od nas,
i tad kad budemo imali mašine koje su pametnije od nas,
one će same početi da se razvijaju.
I onda rizikujemo ono što je matematičar I.Dž. Gud nazvao
"eksplozija inteligencije",
da proces može da nam pobegne.
E, sad, ovo se često karikira, kao što ću i ja uraditi,
kao strah od napada armije
zlih robota.
Ali to nije najverovatniji scenario.
Nije kao da će naše mašine spontano postati zle.
Brine nas, zapravo, da ćemo mi napraviti mašine
koje su mnogo, mnogo kompetentnije od nas,
brinemo da će nas uništiti i najmanja razlika između
naših i njihovih ciljeva.
Zamislite kakvi smo mi prema mravima.
Ne mrzimo ih.
Ne povređujemo ih namerno.
Zapravo, ponekad se trudimo se da ih ne povredimo.
Preskačemo ih na trotoaru.
Ali kada god njihovo prisustvo
ozbiljno ugrozi neke naše ciljeve,
recimo kada konstruišemo neku zgradu poput ove,
bez po muke ih istrebimo.
Brine nas da ćemo jednog dana napraviti mašine
koje će, bilo da su svesne ili ne,
nas tretirati na isti način.
E, sad, cenim da većini vas ovo zvuči kao daleka budućnost.
Kladim se da ima onih koji ne veruju da je superinteligentna VI moguća,
a kamoli neizbežna.
Ali onda morate naći neku grešku u sledećim pretpostavkama.
A samo ih je tri.
Inteligencija je stvar obrade informacija u fizičkim sistemima.
U stvari, ovo je malo više od neke pretpostavke.
Već smo ugradili specifičnu inteligenciju u naše mašine,
i mnoge od ovih mašina već
imaju performanse na nivou superljudske inteligencije.
I znamo da sama materija
može da omogući takozvanu "uopštenu inteligenciju",
sposobnost da se fleksibilno razmišlja u različitim domenima,
jer to može i naš mozak. Je l' tako?
Mislim, ovde postoje samo atomi,
i sve dok mi nastavljamo da gradimo sisteme atoma
koji su sve inteligentniji i inteligentniji,
mi ćemo na kraju, osim ako nas prekinu,
mi ćemo na kraju ugraditi uopštenu inteligenciju
u naše mašine.
Od suštinske je važnosti da shvatimo da stopa napretka nije važna,
jer bilo kakav napredak je dovoljan da nas dovede do cilja.
Ne treba nam Murov zakon. Ne treba nam eksponencijalni napredak.
Samo treba da nastavimo dalje.
Druga pretpostavka je da ćemo nastaviti dalje.
Nastavićemo da poboljšavamo naše inteligentne mašine.
I uz postojeću vrednost inteligencije -
mislim, inteligencija je ili izvor svega što je vredno
ili nam treba da sačuvamo sve ono što nam je vredno.
To je naš najvredniji resurs.
I zato želimo da uradimo ovo.
Imamo probleme koje očajnički moramo da rešimo.
Želimo da izlečimo bolesti poput Alchajmera i raka.
Želimo da shvatimo ekonomske sisteme. Želimo da poboljšamo nauku o klimi.
Tako da, ako možemo, to ćemo i uraditi.
Voz je već napustio stanicu, i nema kočnice.
Konačno, mi ne stojimo na vrhuncu inteligencije,
a verovatno ni blizu toga.
I ovo je zaista suštinski uvid.
Zbog ovoga je naša situacija tako nepouzdana,
i zbog toga je naša intuicija o riziku tako nepouzdana.
E, sad, samo razmislite o najpametnijoj osobi ikada.
Na skoro svačijem užem spisku ovde je Džon fon Nojman.
Mislim, utisak koji je Nojman ostavio na ljude oko sebe,
uključujući tu najveće matematičare i fizičare tog vremena,
je prilično dobro dokumentovan.
I ako je samo pola onih priča o njemu polutačna,
nema dileme da je on
jedan od najpametnijih ljudi koji su ikada živeli.
Samo zamislite opseg inteligencije.
Ovde imamo Džona fon Nojmana.
Onda smo tu vi i ja.
I onda imamo neko pile.
(Smeh)
Pardon, neko pile.
(Smeh)
Nema potrebe da idem dalje u dubiozu u ovom govoru nego što treba.
(Smeh)
Međutim, čini se da je više nego verovatno da se spektar inteligencije
proteže mnogo više nego što trenutno možemo da shvatimo,
i ako napravimo mašine koje su mnogo inteligentnije od nas,
one će skoro sigurno istražiti ovaj spektar
onako kako to ne možemo ni zamisliti,
i preteći nas na načine koje ne možemo ni zamisliti.
I važno je shvatiti da je ovo moguće samo putem brzine.
U redu? Zamislite samo da napravimo jednu superinteligentnu VI
koja nije ništa pametnija od vašeg prosečnog tima istraživača
na Stanfordu ili MIT-u.
Pa, električna kola funkcionišu oko milion puta brže
od biohemijskih,
tako da bi ove mašine razmišljale oko milion puta brže
od umova koje su ih sastavile.
Pustite ih da rade nedelju dana,
i izvešće 20.000 godina ljudskog intelektualnog rada,
nedelju za nedeljom.
Kako čak možemo i razumeti, a kamoli ograničiti
um koji bi mogao ovo da uradi?
Iskreno, ono drugo što je zabrinjavajuće
je da, zamislite najbolji mogući scenario.
Zamislite da nabasamo na neki dizajn superinteligentne VI
čija nas sigurnost ne brine.
Po prvi put imamo savršeni dizajn.
To je kao da nam je dato proročanstvo
koje se odvija baš kako je zapisano.
Ta mašina bi bila savršeni uređaj za uštedu radne snage.
Dizajnirala bi mašinu koja može napraviti mašine
za bilo kakav fizički posao,
a koje bi napajalo sunce,
manje-više po ceni sirovina.
Pričamo o kraju teškog ljudskog rada.
Takođe pričamo o kraju većeg dela intelektualnog rada.
Pa šta će onda majmuni poput nas da rade u takvim okolnostima?
Pa, imali bismo vremena za frizbi i da masiramo jedni druga.
Dodajmo malo LSD-a i neke diskutabilne garderobe,
i ceo svet bi mogao biti poput festivala Burning Man.
(Smeh)
E, sad, to možda zvuči kao dobra ideja,
ali zapitajte se šta bi se desilo
pod našim trenutnim ekonomskim i političkim poretkom?
Čini se verovatnim da bismo bili svedoci
određenog nivoa novčane nejednakosti i nezaposlenosti
koji ranije nismo viđali.
Uz odsustvo volje da se odmah ovo novo bogatstvo stavi
na raspolaganje čovečanstvu,
nekoliko bilionera bi poziralo na omotima biznis magazina
dok bi ostatak sveta slobodno mogao umreti od gladi.
I šta bi radili Rusi ili Kinezi
kada bi čuli da tamo neka firma iz Silicijumske doline
treba da izbaci superinteligentnu VI?
Ova mašina bi bila sposobna da vodi rat,
bilo klasični, bilo sajber rat,
nadmoćna bez presedana.
Ovo je scenario pobednik nosi sve.
Biti šest meseci ispred konkurencije ovde
je isto biti 500 000 godina ispred,
u najmanju ruku.
Tako se čini da bi čak i samo glasina o proboju ovog tipa
izazvala ludnicu među ljudima.
I, sad, jedna od najstarašnijih stvari,
prema mom mišljenju, trenutno,
su one stvari koje istraživači VI kažu
kada žele da vas ohrabre.
I najuobičajeniji razlog zbog koga nam kažu da ne brinemo jeste vreme.
Sve je to daleko, znate.
To je verovatno 50 ili 100 godina daleko.
Jedan istraživač je rekao:
"Briga o bezbednosti VI
je kao briga o prenaseljenosti Marsa."
Ovo je kao kada vam iz Silicijumske doline kažu:
"Nemojte vi zamarati vaše glavice time."
(Smeh)
Izgleda da niko ne primećuje
da je odnos prema vremenu
potpuni non sequitur.
Ako je inteligencija samo stvar procesuiranja informacija,
i mi nastavimo da poboljšavamo mašine,
proizvešćemo neki oblik superinteligencije.
I nemamo pojma koliko će nam trebati vremena
da stvorimo uslove da to uradimo bezbedno.
Dozvolite mi da ponovim.
Nemamo pojma koliko vremena će nam trebati
da stvorimo uslove da to uradimo bezbedno.
Ako niste primetili, 50 godina nije kao što je bilo ranije.
Ovo je 50 godina u mesecima.
Ovoliko dugo već imamo iPhone.
Ovoliko se već prikazuju "Simpsonovi".
Pedeset godina nije mnogo vremena
da se ostvari jedan od najvećih izazova naše vrste.
Još jedanput, izgleda da nam nedostaje odgovarajući emocionalni odgovor
na ono na šta imamo svako pravo da verujemo da dolazi.
Kompjuterski naučnik Stjuart Rasel ima lepu analogiju za ovo.
On kaže, zamislite da smo primili neku poruku od vanzemaljaca,
u kojoj stoji:
"Zemljani,
stižemo na vašu planetu za 50 godina.
Spremite se."
I mi ćemo samo da odbrojavamo mesece dok se njihov brod ne spusti?
Osetili bismo malo više straha nego obično.
Drugo zbog čega kažu da ne brinemo
je da ove mašine ne mogu drugačije nego da dele naše vrednosti
zato što će one bukvalno biti produžeci nas samih.
One će biti nakalamljene na naš mozak
i mi ćemo suštinski postati limbički sistem.
Sad na trenutak razmislite
da je najbezbednija i jedina razborita i preporučena,
putanja napred,
da ovu tehnologiju implementiramo direktno u naš mozak.
Sad, ovo može biti najbezbednija i jedina razborita putanja napred,
ali obično se bezbednost neke tehnologije
mora baš dobro razmotriti pre nego što vam se zabode u mozak.
(Smeh)
Veći problem je što pravljenje superinteligentne VI same od sebe
izgleda lakše
od pravljenja superinteligentne VI
i kompletiranja neuronauke
koja nam omogućava da integrišemo naše umove sa njom.
I ako imamo to da kompanije i vlade rade ovaj posao,
one će verovatno to shvatiti kao da se takmiče protiv svih drugih,
jer pobediti u ovoj trci znači osvojiti svet,
uz uslov da ga sledećeg trenutka ne uništite, a onda će verovatno prvo biti urađeno
ono što je najlakše.
E, sad, nažalost, ja nemam rešenje za ovaj problem,
osim toga da preporučim da više nas promisli o tome.
Smatram da nam je potrebno nešto poput Projekta Menhetn
na temu veštačke inteligencije.
Ne da bismo je izgradili, jer mislim da je to neizbežno,
već da razumemo kako da izbegnemo trku naoružanja
i da je napravimo na način koji je u skladu sa našim interesima.
Kada se razgovara o superinteligentnoj VI
koja sama sebe može da menja,
čini se da imamo samo jednu šansu da početne uslove postavimo kako treba,
a čak i onda ćemo morati da prihvatimo
ekonomske i političke posledice pravilne upotrebe.
Ali trenutak kada priznamo
da je obrada informacija izvor inteligencije,
da je neki odgovarajući računarski sistem osnova onoga što je inteligencija,
i prihvatimo da ćemo stalno unapređivati ove sisteme,
i prihvatimo da će horizont shvatanja vrlo verovatno daleko nadmašiti
ono što trenutno znamo,
onda moramo da prihvatimo
da smo u procesu pravljenja neke vrste božanstva.
Sada bi bilo dobro vreme
da se postaramo da je to božanstvo sa kojim bismo mogli živeti.
Hvala vam mnogo.
(Aplauz)