Enne kui masin ületab inimest
Tehisintellekti üle mõtlemine ja arutlemine on viimaste aastatega plahvatuslikult kasvanud. Osalt on selle põhjuseks palju meediakära tekitanud arengud, kus arvutiprogrammid on mõnel kitsal alal näidanud inimvõimetega võrdväärseid või paremaid oskusi.
Näiteks õppis DeepMindi nimeline programm 2013. aastal mängima Atari konsoolil videomänge inimestest paremini. 2016. aastal võitis tehisintellekt ühes keerulisemas strateegiamängus Go inimtšempioni. Need saavutused lisanduvad juba laiemalt tuntutele nagu Deep Blue võit Garri Kasparovi üle males 1996. aastal ja IBM Watsoni võit Kuldvillaku mängus 2011. aastal.
Need saavutused on tekitanud küsimusi, kas tehisintellekt võib kunagi tulevikus hakata hoopis inimkonda ohustama. On ju võimalik, et samas tempos jätkates arendame kunagi välja tehisintellekti, mis ületab inimvõimekust mitte ainult lauamängudes, vaid enamikus või isegi kõigis tegevusvaldkondades. Kuna on teada, et inimkond on teised liigid ja ümbritseva keskkonna alistanud suuresti oma mõistuse abil, siis kontrollimatu tehisintellekti arendamine võib inimliigi jätkumisele osutuda samal põhjusel suurimaks teadaolevaks riskiks.
Milliseid eetilisi printsiipe peaks sellise tehisintellekti ehitamisel ennetavalt arvesse võtma, et ka tulevikus inimesed ja masinad rahus elaksid? Siin pole lihtsat vastust. Paljud eksperdid on pigem pessimistlikul seisukohal. Näiteks Nick Bostromi raamatu „Superintellekt: Suunad, ohud, strateegiad“ („Superintelligence: Paths, Dangers, Strategies“, 2014) 8. peatükk kannab kurjakuulutavat pealkirja „Kas vaikimisi lahendus on hukk?“.
Üks suurimaid tehisintellektiga seotud riskide eest hoiatajaid on viimastel aastatel olnud Skype’i asutaja Jaan Tallinn, kes on muuhulgas aidanud asutada Cambridge’i ülikooli eksistentsiaalsete riskide uurimise keskust (Cambridge Center for the Study of Existential Risk) ja esines ka viimasel selleteemalisel Asilomari konverentsil samas paneelis Tesla tegevjuhi, Open AI asutaja ja visionääri Elon Muski ning Demis Hassabisega,1 kes juhib ettevõtet nimega DeepMind, mis keskendub tehisintellekti arendamisele ja millele kuulub eelnimetatud Atari ja Go mängude alistamise au tehisintellekti poolt.
Järgneva intervjuu paremaks mõistmiseks on kasulik teada järgmiseid termineid:
– tehisintellekt (artificial intelligence ehk AI) on arvutiprogramm, mis on võimeline lahendama ülesandeid, mida reeglina suudab lahti hammustada vaid inimmõistus;
– neurovõrgud (neural networks) tähendavad inimeste neuronite tööprintsiibist inspireeritud lähenemisviisi tehisintellektile, kus neurovõrk õpib ülesannet treeningandmete põhjal ise lahendama, olemata programmeeritud teatud tingimustel kindlat moodi reageerima nagu klassikalised arvutiprogrammid;
– sügavõpe (deep learning) tähendab neurovõrke, milles on rohkem kui üks neuronikiht. Sügavõpe on praegu kõige populaarsem lähenemisviis tehisintellekti arendamisele. Sarnaselt inimajuga töötab sügavõpe üllatavalt hästi ka eriskummaliste probleemide lahendamisel, kui arvutil on piisavalt andmeid, mille pealt oma ülesande täitmist õppida;
– tehisintellekti eetika (AI ethics) on teadusharu, mis uurib, kuidas programmeerida endast arukamasse intellekti inimkonnale töökindlaid, soodsaid ja püsivaid eetilisi printsiibe.
Millised eeldused viivad nende katastroofiliste järeldusteni, mille pärast sina muretsed?
Me elame füüsikalises maailmas ja koosneme aatomitest. Evolutsioon pole mingi maagiline protsess, mida inimesed või masinad ei suudaks jäljendada. Matemaatiliselt saab tõestada, et mida kauem evolutsioon kestab, seda raskema ülesande ta suudab lahendada. Elu tekkeks läks neli miljardit aastat, sealt praeguse hetkeni on aga kulunud ainult miljard aastat. Inimese eellasest inimese tekkeni läks 200 000 aastat. Nende ajavahemike põhjal saab hinnata, kui raske on näiteks inimest luua. Samas on inimene võimsam optimeerimissüsteem kui evolutsioon. Me oleme valmistanud asju, milleni evolutsioon pole kunagi jõudnud: näiteks tulirelvad või raadio. Nendest tehnoloogiatest oleks paljudel organismidel kasu olnud, aga looduslik areng ei suutnud neid välja töötada.
Kas on üldse võimalik teha midagi ennetavalt tähenduslikku ja mõjuvat, et inimesega võrreldava tehisintellekti tekkega ei kaasneks kohe ka maailmalõpp? Kui vaadata globaalse soojenemise ümber toimuvat, siis arutelu on küll elav, kuid katsed probleemi päriselt lahendada jätavad soovida.
Üks näide, kus inimkond on globaalsest ohust jagu saanud, on osoonikihi hõrenemine. Tehisintellekti riski teeb ohtlikumaks see, et probleem on oluliselt keerulisem kui kõik ülejäänud probleemid kokku. Samas teeb selle lahendamise lihtsamaks asjaolu, et pole vaja veenda kogu maailma. Inimeste hulk, keda on vaja veenda globaalse soojenemise probleemis, on märksa suurem kui AI riski puhul, kus on vaja veenda ainult neid inimesi, kes päriselt AI-d ehitavad.
Kas see on OK, kui eetika ja riskide üle mõtlemine ja võimalike lahenduste väljapakkumine on nii väikese seltskonna tegevus? Kas avalikkus peaks sellesse üldse sekkuma ja kaasa mõtlema?
Raske öelda, üks oluline tundmatu muutuja on see, kui palju on jäänud aega kurja tehisintellekti ennetamiseks. Kui meil on aega järel vähe – mõned arvavad, et vähem kui 10 aastat – siis on selge, et peame keskenduma väikese hulga praegu tehisintellektiga töötavate inimeste veenmisele. Kui meil on aega 50–100 aastat, siis peame mõtlema ka hariduse ja laiemas mõttes inimkonna võimekuse tõstmise peale.
On arvatud, et AI-ga seotud eetika ja riskide valdkonna matemaatikakesksus võib osutuda probleemiks. Näiteks jäi silma hiljutine Kaj Sotala postitus efektiivse altruismi blogis,2 milles ta kutsus ülesse kaasama AI riski valdkonda rohkem psühholoogiaharidusega inimesi. Ainuke üldintellekt, mille olemasolust me oleme teadlikud, on inimene ja seega annaks inimpsüühika uurimine intellekti üle mõtlemisele palju juurde, olgu see bioloogiline või tehislik.
Kindlasti tuleks kompetentside mitmekesisus probleemi lahendamisele kasuks. Viimase viie aastaga on tehisintellekti riski teemal hakatud plahvatuslikult rohkem kõnelema. Scott Alexander ütles selle kohta, et isegi valdkonna suhtes kriitilised artiklid on jõudnud tõdemuseni, et tehisintellekti riskide üle mõtlemine on muutunud kohati teaduslikuks konsensuseks. See on samm edasi varasemast suhtumisest, mis oli enamasti stiilis „hullumeelne idee, mida ükski tervemõistuslik inimene ei usu“.
Teema populaarsus on tekitanud palju müra. Varasemal ajal jõudis enamik inimesi tehisintellekti riskide juurde suuresti selle kaudu, et nad mõtlesid ise, kuhu praegused trendid võivad välja viia. See töötas väga efektiivse intellektuaalse filtrina. Praegu on kultuur ja meedia AI riskide teemat täis ning igaüks võib selle kohta sõna võtta. See viib üldise probleemini, et on palju inimesi, kes tahaksid midagi ära teha, aga pole selge, kuidas neid lahendustesse integreerida.
Mida suurem on sensatsioonilise ajakirjanduse huvi klikke saada, seda suurem on huvi tehisintellekti teemat kallutatult esitleda. See jätab tihti väga rumala mulje nende inimeste jaoks, kes tehisintellektiga praktiliselt tegelevad.
Kuivõrd mõistlik on mõtelda intellektist üldise omadusena, võtmata arvesse teadaolevate töötavate intelligentsete süsteemide ehituslikke iseärasusi. Näiteks teame juba inimese aju mõningaid tööpõhimõtteid.
See on samamoodi keeruline küsimus nagu teadvuse puhul. Selleks, et maailma ära hävitada, pole vaja olendeid, kellel on eneseteadvus. Arvutid, mis suudavad võita inimest males, ei pea olema teadvusel ning samuti pole teadvus tarvilik maailma mõjutavate juhtimisotsuste tarvis. Inimese psühholoogiat on muidugi mõtet uurida. Seda teeb näiteks DeepMind, mis arendab inimtasemel tehisintellekti, ehitades AI arhitektuure, mis on inimese aju tööpõhimõtetele sarnased. Nii et inimese aju puhul on proof of concept (kontseptsiooni praktiline tõendus) olemas. Samas ei maksa arvata, et inimene oleks masinatega võrreldes kuidagi põhimõtteliselt eriline. Erinevus on vaid parameetrites. Näiteks kuigi maailmas on palju nn savante, kes suudavad peast lahendada tohutult keerulisi rehkendusi, pole samas ühtegi tõendit, et eksisteeriks inimest, kes suudaks teha tehteid, mis oleksid arvuti jaoks liiga keerulised.
Selle valguses tundub viimane turvalise tehisintellekti arendamisele suunatud Asilomari konverents sammuna õiges suunas – tehisintellekti ehitajad ning eetika ja riskide üle muretsejad viidi omavahel kokku.
Ka minu ja Future of Life instituudi viimaste aastate huviks on olnud kokku viia inimesed, kes tahavad, et tehisintellekt oleks läbinähtav ja ennustatav, nendega, kes tehisintellekti ehitavad.See on olnud mu eesmärk ka DeepMindi ja teistesse AI start-up’idesse investeerimisel. Teine tähtsündmus Asilomari kõrval oli 2015 toimunud ohutu tehisintellekti arendamisele suunatud Puerto Rico konverents, kus osales kaks-kolm korda väiksem seltskond.
Kas on mingeid puudujääke AI eetika ja riskide adekvaatse hindamise suures pildis?
Põhiline puudujääk on suur ebaselgus, kuna me ei tea tegelikult olulisi parameetreid, mille raames inimkond tegutseb. Kõige olulisemateks parameetriteks on see, kui palju meile on jäänud aega ja kui raske on teha inimtasemel tehisintellekti. Me ei tea, kui suure tõenäosusega võib sügavõppe praegune ülesmäge suunduv trend viia otse inimtasemel tehisintellektini.
Kaalukaid argumente on mõlemas suunas. Empiiriliselt töötab sügavõpe palju paremini kui teised viimaste aastakümnete jooksul arendatud rohkem struktureeritud lähenemised. Tüüpiline näide on, et kui inimesed arendavad mõnda loomuliku keele töötlemise süsteemi, siis tuleb kuskilt väike grupp programmeerijaid, kes löövad sügavõppe haamriga probleemile pihta ja kohe teevad selles vallas maailma parima tulemuse.
Vastuargument pärineb ühelt tuttavalt, kes nimetab sügavõpet kõigest üleskiidetud otsingutabeliteks (glorified look-up tables), mis põhinevad ainult ühel funktsioonil ega suuda täita kõiki funktsioone (neil puudub nn Turingi täielikkus). Seega pole nad kaugeltki nii muljetavaldavad sammud üldintellekti suunas, nagu enamik inimesi arvab. Loomulikult on tehtud asju nagu pikaajalise mäluga LSTM neurovõrgud (long short-term memory networks) jaDeepMindi Neural Turing Machines, kus ühendati andmetest õppiv neurovõrkude lähenemine tavalise tingimusliku programmeerimisega.
Kui me teaksime, kui palju meil aega on, oleks kohe oluliselt lihtsam. Lisaks on paljud probleemid ka filosoofiliselt lahendamata. Võime öelda, et tehisintellekti arendades tegeleb inimkond endale kõige parema tuleviku otsimisega ja seda sellise nüansiga, et esimese inimesega enam-vähem võrdväärse tasemega tehisintellekti loomisel enam teistsugust tulemust valida ei saa. Nüüd peame kohe küsima, et misasi on inimkond, misasi on maailm, misasi on parim. Need kõik on probleemid, millega filosoofid on aastatuhandeid tegelenud, aga nüüd on meil vastuseid vaja kohe ja need vastused peavad olema esitatavad arvutikoodis.
Kuidas suhtuda Andrew Ngi väitesse, et vaenuliku tehisintellekti pärast muretsemine on sama, mis karta ülerahvastatust Marsil? Teisisõnu, see pole probleem, mille üle peaks tegelikult muretsema.
Nii Andrew Ng ja Yann LeCun on huvitavad juhtumid, kuid Ng on ekstreemsem. Mõlemat on üritatud veenda, ja kui nendega rääkida, siis nad mõtlevad kaasa, aga seejärel unustavad kiirelt kogu jutu ära ja teevad samu vigu edasi. Muidugi, siin ongi palju ebakindlat. Pole mõeldamatu, et meil ongi 300 aastat aega. Carl Sagan on öelnud, et erakordsed väited vajavad erakordseid tõendeid. Väide, et inimtasemel tehisintellekti ei arendata välja järgmise 300 aasta jooksul, vajab tugevaid tõendeid.
Teiseks: isegi kui me ei tea, millal inimtasemeline tehisintellekt luuakse, ei saa me niisama käed rüpes istuda. Kujuta ette, et lähed lennukisse ja tuleb teade, et osa turvaeksperte arvab, et lennukis on pomm, ja teine osa eksperte arvab, et pommi ei ole. Hoolimata ebakindlusest on siiski teada, mida tegema peab. Paari nädala eest tehti ekspertide seas küsitlus ja kuigi valitsesid eriarvamused,3 ei saa öelda ka, et nende arvates probleemi pole. Vastanutest 40% arvab, et tegemist on tõsise probleemiga. Me ei pea ootama, et need viimased inimesed ka ära veendaks, et tegutsema hakata.
Kuidas teha vahet erinevatel mõttevooludel AI riskiga tegeleva kogukonna sees? Näiteks meenub Ben Goertzeli ja Maciej Cegłowski kriitika, et seltskond, kes tegeleb tehisintellekti riskidega on liialt enesekeskne ja meenutab kohati elitistlikku sekti.
Olen viimasel ajal analüüsinud tõsiseltvõetavate ekspertide eriarvamusi ja tuvastanud neli telge, mille abil eri mõttevoole kaardistada.
1. Purism: ülalt alla vs alt üles lähenemine. Ülalt alla lähenemine tähendab printsipiaalse tehisintellekti-lahenduse väljamõtlemist, enne kui see valmis ehitatakse. Näiteks enne kui ehitati esimene malearvuti, oli skemaatika ideaalse malearvuti ehitamiseks juba välja mõeldud. Ajaloost võib tuua näiteks Edgar Allan Poe 1836. aasta essee „Maelzel’s Chess-Player“, kus ta seletas, et „mehaanilist türklast“, mis jättis mulje, nagu masin mängiks malet inimesest paremini, ei saa olla olemas, sest males pole võimalik mängida deterministlike reeglitega. Pärast tuligi välja, et masina sees oligi inimene. Selline väide kõlab mõistlikult, kui sa ei tea, et on olemas printsipiaalne lahendus, milleks antud juhul on otsingupuu. Me oleme praegu samas olukorras, kus Poe oli 1830. aastatel: tegelikult me ei tea, mis põhimõtetel ehitada turvalist tehisintellekti.
Lisaks peab arvestama, et turvanõuded inimtasemel tehisintellektile peavad olema suuremad, kui ühelegi süsteemile, mis seni ehitatud. Ainuke võrreldav väljakutse on kosmoseteadus ja -tehnika, kus süsteemidesse on raske sekkuda, kui nad juba orbiidil on.
Alt üles lahendus on võtta olemasolevad AI-süsteemid ning püüda neid ennustatavaks ja turvalisemaks teha. Selle suuna pooldajatel on kaks argumenti: a) meil pole aega ehitada täiuslikku süsteemi, b) üritades praegusi lahendusi turvalisemaks teha, saame paremini õppida, kuidas turvalist tehisintellekti üleüldse ehitada. Ühiskond kaldub pigem selle poole, et praegusi süsteeme paremaks teha, sest need on juba praegu siin.
2. Elitism vs kaasatus. Ühes otsas on need, kes arvavad, et elitism on vajalik, ja teises otsas need, kelle jaoks see on probleem. Elitismi pooldajad soovitavad keskenduda neile, kelle maailmamuutev potentsiaal on tõendatult suurem kui kõigil teistel. Näiteks on selge, etaškenazi juudid on Nobeli preemia saajate hulgas tugevalt üleesindatud. Elitismi kriitikud toovad välja, et me ei saa lõpuni teada, kes tehisintelligentsete süsteemide puhul piltlikult öeldes nuppu vajutavad, ja seega maailmast talentide ülesleidmiseks on tarvis heita välja võimalikult lai võrk. Minu enda positsioon sõltub sellest, kui palju meil aega järel on. Mida vähem aega, seda elitistlikumad me peaksime olema; mida rohkem aega, seda kaasavamad.
3. Individualism vs organisatsioonikesksus. Individualistid ütlevad, et organisatsioonidega ongi lootusetu tegeleda, sest organisatsioonides tekivad varem või hiljem väärastunud stiimulid, mille tulemusel organisatsioon hakkab tegema midagi muud kui see, milleks ta algselt mõeldud oli. Organisatsioonikeskse lähenemise pooldajad toetavad töötamist läbi olemasolevate struktuuride, olgu nendeks siis valitsused või ÜRO, sest need on juba olemas ja mõjutavad maailma.
4. Filosoofiatelg. Küsimus on selles, mil määral me oleme filosoofiliselt valmis maailma juhtimist masina(te)le üle andma. Näiteks kui me arvaks, et maailma koosneb ainult neljast elemendist – maa, õhk, vesi ja tuli – ning anname tehisintellektile ülesandeks maksimeerida inimkonna heaolu, oleks ülesandepüstitus juba algusest peale ilmselgelt vigane. Me ei tea praegu, kuidas anda suuniseid nii, et näiteks meie puudulikud teadmised füüsikast ei jätaks mingit olulist asja välja, mis lõpuks võib meile saatuslikuks saada. Teise näitena võib tuua rahvastikueetikast nnvastiku järelduse, mille järgi iga hästi elava populatsiooni kohta teoreetiliselt eksisteerib suurem populatsioon, kus elutingimused oleksid halvemad, aga summaarne heaolu oleks suurem, sest on rohkem inimesi, kes saavad heaolu tunda. Inimesed, kes on filosoofiateljel madalas otsas, väidavad, et tegelikult panevad majandus ja teised ühiskonnaseadused asjad paika ja meil endal suurt valikuvõimalust ei ole.
Ma ise ei paigutaks end selles neljamõõtmelises kuubis ühtegi kindlasse punkti, pigem mõtleksin tõenäosustihedusest. Purismi puhul kaldun sinnapoole, et peame olema võimalikult konservatiivsed, sest me räägime süsteemist, mis hakkab ehitama süsteemi, mis hakkab ehitama süsteemi. Probleem on samas selles, et me oleme raisanud juba 50 aastat, kui alustada ajaarvamist hetkest, mil Alan Turing vihjas, et AI turvalisus on probleem. Elitismiskaalal sõltub palju sellest, kui palju meil aega on. Individualismi küsimuses pole mul head seisukohta – mõlemal lähenemisel on oma mõistlikud argumendid. Filosoofias sarnaneb mu seisukoht purismile selles mõttes, et asjad tuleks enne ehitamist läbi mõtelda.
Kui inimkonda ohustab mitu eksistentsiaalset ohtu ja mõnda neist pole võimalik lahendada ilma väga võimeka tehisintellektita, mis aitaks meil probleemist aru saada – kas siis ei oleks sellise tehisintellekti ehitamine just nimelt eetiline lahendus?
Tõenäosushinnangute küsimus. Mõningate tuntud eksistentsiaalsete riskide puhul on tõenäosust lihtne hinnata. Näiteks asteroidiga kokkupõrkamise tõenäosus on üks kümnest miljardist sajandis ja see tõenäosus ei muutu. Bio- ja nanoriskid on oluliselt suuremad ja head inimesed juba tegelevad nendega. Siiski usun, et kui me lahendame AI riski, siis saame teiste riskide lahendamise pealekauba. Hooletul AI arendamisel oleks aga palju rängem negatiivne tulemus.
Kas on mingi oht poliitikutelt ja valitsustelt?
Ainus mure on, kui probleemist saadakse totaalselt valesti aru. Nädal enne Brexiti hääletust küsiti mult ühel konverentsil, kas Brexit on tehisintellekti riskide analüüsi kontekstis hea või halb. See tundus totter päevapoliitiline küsimus, aga tegelikult omab Briti valitsus suurimat potentsiaali olla selles vallas kõige kompetentsem valitsus maailmas. Riskide haldamise kolmest suurimast tulipunktist kaks asuvad Suurbritannias Oxfordi ja Cambridge’i ülikoolis ning Briti valitsus suhtleb nende ülikoolidega palju enam kui näiteks USA valitsus Berkeleyga, mis on kolmas tähtis keskus. Mitte et praegune valitsus oleks superkompetentne, kuid Brexitile keskendumine on nende juba niigi piiratud tähelepanu mujale viinud. Lisaks suheldakse üha rohkem Aasia suunal nii hiinlaste kui jaapanlastega, kuigi seal on nii keele- kui ka kultuuribarjäär. Samas olen ma Jaapanis ja mujal Aasias näinud märksa vähem eelarvamusi tehisintellekti riskide üle mõtlemisel. Läänes on paljude praktikute esimene reaktsioon riskidest kuuldes kuuldud väiteid kiiresti tõrjuda.
Kui palju tasub nende rahvusvaheliste arengutega Eestis kaasa mõelda?
Näiteks Rao Pärnpuu tegi hiljuti oma magistritöö tehisintellekti maailmamudelite ontoloogilisest nihkest.4 Ise toetasin Tartu Ülikooli arvutiteaduse instituuti, et nad saaksid tegeleda AI riskide mängumudeliga (AI Risk Toy Model). Taustal on laiem assümeetria Aasia vs Lääs, kuna talendivoog suundub pea eranditult Lääne ülikoolidesse.
Kas Elon Muski välja pakutud Neuralink ehk aju otse ühendamine arvutiga oleks lahendus?
Neuralink on huvitav projekt, aga lahendusega pole sellel suurt midagi pistmist. Elon Musk väidab enamasti, et inimeste peamine piirang on andmevahetuse kiirus (it’s mostly about the bandwidth), aga see on selgelt vale. Meie piirang pole mitte andmevahetuse madal kiirus, vaid üldiselt aeglane mõtlemine. Võtame näiteks järgmise mõttemängu: meil on kaks tuba, mõlemas toas on inimene ning neil on väga hea andmevahetus. Kui aga üks inimene mõtleb miljard korda aeglasemalt kui teine, siis selle aja jooksul, kui aeglasemalt mõtlev inimene suudab öelda ühe sõna, võib kiiremini mõtleva inimese jaoks olla möödunud 10 aastat. Samamoodi pole mingit kasu sellest, kui paned endale külge miljard korda kiiremini toimiva tehisintellekti, isegi kui teie andmevahetus toimub kiiresti.
Artikkel ilmus augustis Vikerkaar.ee.
Toimetaja: Valner Valme
Allikas: Vikerkaar