Kaarel Hänni loeng  „AGI Safety” 

Kaarel Hänni on tehisintellekti ohutuse teadur Mila – Quebeci Tehisintellekti Instituudis. Tema töö keskendub turvalise tehisintellekti arendamisele inimkonna hüvanguks.

Kokkuvõte:

Ettekanne annab sissejuhatuse üldise tehisintellekti (AGI – artificial general intelligence) ohutuse teemasse. Ettekande esimene pool tugineb kolmele taustaväitele:

„AI soon”: Kui tehisintellekti areng jätkub samas tempos, siis 50 aasta jooksul on väga tõenäoline, et olemas on tehisintellektid, mis on sisuliselt igas valdkonnas inimestest võimekamad. Autor tutvustab kvantitatiivseid empiirilisi trende, mis viitavad sellele, et see võib juhtuda juba enne 2035. aastat – võimalik, et isegi lähiaastatel.

„AI fast”: Kui tehisintellekt suudab iseseisvalt teha teadustööd tehisintellekti valdkonnas inimesest tippteadlaste tasemel, siis võib üsna kiiresti tekkida süsteeme, mis on inimestest tohutult targemad (sarnaselt sellele, kuidas inimesed on palju targemad sipelgatest).

„AI big”: See muudaks maailma radikaalselt. AGI mõju oleks oluliselt suurem kui autode, interneti või tööstusrevolutsiooni mõju — see oleks võrreldav selliste sündmustega nagu elu teke Maal või inimkeele ja kultuuri kujunemine.

Ettekande teine pool pealkirjaga „AI bad?” käsitles järgmisi küsimusi:

  • Miks võib AGI arendamine olla riskantne?
  • Kas see võib viia inimeste mõjuvõimu vähenemiseni või isegi väljasuremiseni?
  • Millised on peamised plaanid ja lootused halbade stsenaariumide vältimiseks?
  • Milliste tehniliste uurimisküsimustega saab tegeleda riskide vähendamiseks?