15. jaanuaril kell 12.15 kaitseb Marharyta Domnich doktoritööd „Advancing Human-Centric Counterfactual Explanations in Explainable AI“ („Inimkesksete kontrafaktuaalsete seletuste arendamine seletatavas tehisintellektis“).
Juhendajad:
professor Raul Vicente Zafra, Tartu Ülikool
teadur Eduard Barbu, Tartu Ülikool
Oponendid:
professor Barbara Hammer, Bielefeldi Ülikool (Saksamaa)
kaasprofessor Luca Longo, Corki Ülikool (Iirimaa)
Kokkuvõte
Tehisintellekt (TI) mõjutab üha enam kriitilisi otsuseid eri valdkondades, näiteks tervishoius, hariduses ja rahanduses. Mudelite keerukus ja ulatus muudavad otsustusprotsessid sageli läbipaistmatuks ning rõhutavad vajadust seletusmeetodite järele, mis suurendaksid nende läbipaistvust ja kontrollitavust. Selle väljakutsega tegeleb seletatava tehisintellekti (XAI) valdkond, mis arendab inimestele arusaadavaid selgitusi. Inimlikud seletusprotsessid on keerukad ja kontrastiivsed, hõlmates sageli võrdlusi ja hüpoteetilisi stsenaariume. Sellist kontrastiivset mõtlemist väljendavad kõige paremini kontrafaktuaalsed seletused, mis vastavad küsimusele, millised minimaalsed muudatused võiksid mudeli otsust muuta. Et kontrafaktuaalsed selgitused oleksid tõhusad, peavad need sobima inimlike eelistustega – olema tähenduslikud, rakendatavad ja kasutajatele usaldusväärsed.
Doktoritöö autor edendab inimkeskseid kontrafaktuaalseid seletusi nelja omavahel seotud uuringu kaudu. Uurimistöö tugineb kognitiivteaduse arusaamadele, täiustades kontrafaktuaalsete selgituste loomist ja hindamist erinevates rakendusvaldkondades. Esimene uuring, mis on inspireeritud inimlikest kognitiivsetest eelistustest, tutvustab difuusse kauguse ja suunatud koherentsuse kasutamist kontrafaktuaalsete seletuste otsingus. Need kaks uuendust võimaldavad luua lihtsamini teostatavaid ja inimkesksemaid selgitusi, rõhutades andmeruumi sidusust ning joondades tunnuste muutused inimese mõtlemismustritega. Välja töötatud lähenemine, Coherent Directional Counterfactual Explainer (CoDiCE), näitab paremat tulemuslikkust praktiliste ja inimese seletusloogikaga sobivate selgituste loomisel.
Teine uuring tegeleb ühe kontrafaktuaalsete seletuste keskse väljakutsega: kuidas neid usaldusväärselt hinnata? Selleks arendatakse välja CounterEvali andmestik, mis koondab inimeste üksikasjalikud hinnangud mitmele seletuslikule mõõtmele. Üle 200 osalejalt kogutud andmete põhjal luuakse ühtne hindamisraamistik, mis kasutab suurte keelemudelite (LLM-id) võimekust ennustada keskmisi ja individuaalseid inimhinnanguid. See pakub skaleeritavat ja järjepidevat viisi seletuste kvaliteedi hindamiseks. Järgnevas analüüsis uuritakse, kuidas seletustega seotud rahulolu saab modelleerida teiste seletuslike mõõdikute (nt teostatavus, usaldus, täielikkus ja keerukus) põhjal, andes sügavama ülevaate teguritest, mis kujundavad kasutajate üldist rahulolu.
Kolmas uuring näitab kontrafaktuaalsete seletuste praktilist väärtust meditsiinilise pilditöötluse kontekstis, esitades COunterfactual INpaintingu (COIN) lähenemise nõrgalt juhendatud semantilisele segmenteerimisele. COIN genereerib selgitusi, mis muudavad klassifitseerimistulemuse ebanormaalsest normaalseks ning kasutavad algse ja muudetud pildi erinevusi nõrkade segmentatsioonimärgistena. Neerukasvajate segmentatsioonile rakendatuna vähendab see meetod märkimisväärselt radioloogide käsitsi märgistamise töökoormust ja võimaldab patoloogiliste piirkondade tuvastamist ka olukordades, kus ulatuslikult märgistatud andmestikud puuduvad. COIN-i sooritus ületab märgatavalt traditsioonilised atribuutsioonil põhinevad meetodid, demonstreerides kontrafaktuaalsete seletuste potentsiaali tervishoiu rakendustes. Kokkuvõttes panustavad need uuringud seletatava tehisaru valdkonda, arendades ja valideerides kontrafaktuaalsete seletuste meetodeid, mis parandavad TI-süsteemide läbipaistvust ja kasutatavust ning on kooskõlas inimlike tunnetusprotsessidega.
Kaitsmist saab jälgida ka Zoomis (kohtumise ID: 986 0905 3901, pääsukood: ati).