Abdul-Rasheed Olatunji Ottun kaitseb doktoritööd „Practical Trustworthy Artificial Intelligence with Human Oversight“

Mees seisab õppehoone koridoris
Autor: Kadri-Ann Kivastik

7. novembril kell 12.15 kaitseb Abdul-Rasheed Olatunji Ottun doktoritööd „Practical trustworthy artificial intelligence with human oversight“ („Praktiline usaldusväärne tehisintellekt koos inimese järelevalvega“).

Juhendaja:
kaasprofessor Huber Raul Flores Macario, Tartu Ülikool

Oponendid:
professor Christian Becker, Stuttgardi Ülikooli Paralleel- ja Hajussüsteemide Instituut (Saksamaa)
Alexandre da Silva Veith, tarkvara ja andmesüsteemide uurimislabor Nokia Bell Labs (Belgia)

Kokkuvõte
Hajussüsteemid on moodsate digirakenduste alustala, sealhulgas AI-l põhinevate teenuste puhul. Üha sagenevalt moodustavad masin- ja süvaõpe nende süsteemide osa, parandades jõudlust ja kasutajakogemust. Teisalt, nende tõenäosuslik ja läbipaistmatu loomus tekitan sageli probleeme usalduse, turvalisuse ja vastutuse võtmisega. Sellele osutades rõhutavad rahvusvahelised regulatoorsed ja majanduslikud organid inimjärelevalvega usaldusväärse tehisaru vajadusele. Ehkki inimese kaasatus terve tehisaru elutsükli vältel on laialt aktsepteeritud vajadus, on inimosaluse põimimine praktikas piiratud ja seda on vähe arendatud. Doktoritöö keskne küsimus on, kuidas täiustada tehisarul põhinevaid rakendusi inimjärelvalvega, tagamaks usaldusväärset AI-d.

Sellele vastamiseks esitletakse kolme tööd. Esiteks SPATIAL-it, mis on kontseptsiooni tõestamiseks loodud süsteem, mis integreerib AI-rakendustesse kasutajaliidesed usaldusväärsuse mõõtmiseks. Empiirilised uuringud näitavad, et SPATIAL võimaldab ekspertidel hinnata tehisaru järelduste tegemise protsessi, tuues samal ajal esile usaldusmõõdikute integreerimise keerukuse reaalses kasutuskeskkonnas. Teiseks tutvustatakse sotsiaalteadlikku liitõpet (SAFL), mis on hajutatud masinõppe raamistik. SAFL ühildab sotsiaaldünaamika ja ülesannete delegeerimise andmevaliku juhtimiseks ning inimsisendi soodustamiseks. Kasutajauuringud näitavad, et SAFL parandab nii mudeli kui ka treeningandmete kvaliteeti. Kolmandaks AntiVenom – vähenõudlik ja valdkonna-agnostiline anomaaliate tuvastamise tehnika, mis on mõeldud töös olevatele autonoomsetele tehisarusüsteemidele. Analüüsides jõudlusmõõdikuid individuaalsete seadmete tasandil, märgistab AntiVenom kõrvalekaldeid inimesele üle vaatamiseks. Võrreldes traditsiooniliste selgitatavate AI-tööriistadega võimaldab see kiiremat ja proaktiivset monitooringut. Kokkuvõttes näitab see, kuidas inimjärelevalvet saab põimida igasse AI elutsükli etappi: alates disainimisest ja treenimisest kuni tööle rakendamiseni, toetades seejuures läbipaistvate, turvaliste ja usaldusväärsete tehisarusüsteemide arengut.

Kaitsmist saab jälgida ka Zoomis (kohtumise ID: 929 3333 1346, pääsukood: ati).