Sirvi Kuupäev , alustades "2025-12-02" järgi
Nüüd näidatakse 1 - 1 1
- Tulemused lehekülje kohta
- Sorteerimisvalikud
listelement.badge.dso-type Kirje , Advancing human-centric counterfactual explanations in explainable AI(Tartu Ülikooli Kirjastus, 2025-12-02) Domnich, Marharyta; Vicente Zafra, Raul, juhendaja; Barbu, Eduard, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkondTehisintellekt (TI) mõjutab üha enam kriitilisi otsuseid erinevates valdkondades, nagu tervishoid, haridus ja rahandus. Mudelite kasvav keerukus ja ulatus muudavad otsustusprotsessid sageli läbipaistmatuks, rõhutades vajadust seletusmeetodite järele, mis suurendaksid nende läbipaistvust ja kontrollitavust. Selle väljakutsega tegeleb seletatava tehisintellekti (XAI) valdkond, arendades seletusi, mis on inimestele tähenduslikud ja arusaadavad. Inimlikud seletusprotsessid on oma olemuselt keerukad ja kontrastiivsed, hõlmates sageli võrdlusi ja hüpoteetilisi stsenaariume. Sellist kontrastiivset mõtlemist väljendavad kõige paremini kontrafaktuaalsed seletused, mis vastavad küsimusele: „Millised minimaalsed muudatused võiksid mudeli otsust muuta?“. Selleks, et kontrafaktuaalsed seletused oleksid tõhusad, peavad need olema kooskõlas inimlike eelistustega – olema tähenduslikud, rakendatavad ja kasutajatele usaldusväärsed. Käesolev doktoritöö edendab inimkeskseid kontrafaktuaalseid seletusi nelja omavahel seotud uuringu kaudu. Uurimistöö tugineb kognitiivteaduse arusaamadele, täiustades seeläbi kontrafaktuaalsete seletuste genereerimist ning hindamist erinevates rakendusvaldkondades. Esimene uuring, mis on inspireeritud inimlikest kognitiivsetest eelistustest, tutvustab difuusse kauguse ja suunatud koherentsuse kasutamist kontrafaktuaalsete seletuste otsingus. Need kaks uuendust võimaldavad luua lihtsamini teostatavaid ja inimkesksemaid seletusi, rõhutades andmeruumi sidusust ning joondades tunnuste muutused inimese mõtlemismustritega. Väljatöötatud lähenemine, nimega Coherent Directional Counterfactual Explainer (CoDiCE), näitab paremat tulemuslikkust seletuste loomisel, mis on praktiliselt rakendatavad ning inimese seletusloogikaga kooskõlas. Teine uuring tegeleb ühe kontrafaktuaalsete seletuste keskse väljakutsega- kuidas neid usaldusväärselt hinnata. Selleks arendatakse välja CounterEval-andmestik, mis koondab inimeste üksikasjalikud hinnangud mitmete seletuslike mõõtmete osas. Üle 200 osalejalt kogutud andmete põhjal luuakse ühtne hindamisraamistik, mis kasutab suurte keelemudelite (LLMid) võimekust ennustada keskmisi ja individuaalseid inimhinnanguid. See pakub skaleeritavat ja järjepidevat viisi seletuste kvaliteedi hindamiseks. Järgnev analüüs uurib, kuidas seletustega seotud rahulolu saab modelleerida teiste seletuslike mõõdikute (nt teostatavus, usaldus, täielikkus ja keerukus) põhjal, andes sügavama ülevaate teguritest, mis kujundavad üldist kasutajate rahulolu. Kolmas uuring näitab kontrafaktuaalsete seletuste praktilist väärtust meditsiinilise pilditöötluse kontekstis, esitades COunterfactual INpainting (COIN) lähenemise nõrgalt juhendatud semantilisele segmenteerimisele. COIN genereerib seletusi, muutes klassifitseerimistulemuse ebanormaalsest normaalseks ning kasutades algse ja muudetud pildi erinevusi nõrkade segmentatsioonimärgistena. Rakendatuna neerukasvajate segmentatsioonile vähendab see meetod oluliselt radioloogide käsitsi märgistamise töökoormust ning võimaldab patoloogiliste piirkondade tuvastamist ka olukordades, kus ulatuslikult märgistatud andmestikud puuduvad. COINi sooritus ületab märgatavalt traditsioonilised atribuutsioonil põhinevad meetodid, demonstreerides kontrafaktuaalsete seletuste potentsiaali tervishoiu rakendustes. Kokkuvõttes panustavad need uuringud seletatava tehisintellekti valdkonda, arendades ja valideerides kontrafaktuaalsete seletuste meetodeid, mis parandavad TI-süsteemide läbipaistvust ja kasutatavust ning on kooskõlas inimlike tunnetusprotsessidega.