Sirvi Autor "Domnich, Marharyta, juhendaja" järgi
Nüüd näidatakse 1 - 3 3
- Tulemused lehekülje kohta
- Sorteerimisvalikud
listelement.badge.dso-type Kirje , Assessing the Quality of Counterfactual Explanations with Large Language Models(Tartu Ülikool, 2024) Välja, Julius; Domnich, Marharyta, juhendaja; Vicente, Raul, juhendaja; Barbu, Eduard, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. Arvutiteaduse instituutMasinõppe mudelite kiire leviku tõttu on nende mudelite keerulisus ja läbipaistmatus üheks levinud murekohaks. "Seletatav tehisintellekt"(Explainable AI) on informaatika ala, mis keskendub meetoditele, millega on võimalik masinõppe mudelite sisemist loogikat uurida. Üks selline meetod on kontrafaktuaalsed seletused, mis vastavad küsimusele "Kuidas peaks olukord erinema, et mudel ennustaks teistsugust tulemust?". Tunnuseid, mis teevad sellise selgituse heaks on vähe uuritud ning neid on raske arvutuslikult hinnata. Selles lõputöös loodi küsimustik, mille abil koguti andmestik kontrafaktuaalsetest seletustest ning nendele antud hinnangutest erinevate kriteeriumite põhjal. Selle andmestiku abil uuriti suurte keelemudelite võimet neid kriteeriume automaatselt hinnata, muuhulgas kasutades siirdeõpet. Tulemusena saavutati suurte keelemudelite puhul täpsus 70% kuni 95%, sõltuvalt konkreetsest mudelist ja testimisandmestikust. Väiksemad keelemudelid olid oluliselt vähem võimekad, kuid siirdeõppe abil suutsid saavutada 70% täpsust. Lisaks uuriti kriteeriumivaheliste korrelatsioonide mõju tulemustele ning hinnati asjaolu, kuivõrd on inimeste üldist rahulolu seletusega võimalik automaatselt hinnata. Need tulemused võimaldavad edasisi uuringuid kontrafaktuaalsete seletuste automaatses hindamises ning uute kontrafaktuaalsete seletuste otsingualgoritmide arenduses.listelement.badge.dso-type Kirje , Measuring Human Preferences in Counterfactual Explanations(Tartu Ülikool, 2024) Veski, Rasmus Moorits; Domnich, Marharyta, juhendaja; Tulver, Kadi, juhendaja; Vicente, Raul, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. Arvutiteaduse instituutMasinõppemudelid muutuvad kiire arengu ja uute struktuuride lisamise tõttu üha keerukamaks, mistõttu on nende tehtud otsuste taga olevad protsessid kasutajale vähem läbipaistvad. Üks võimalik viis mõista mudeli tehtud otsuseid on luua nende kohta kontrafaktuaalseid selgitusi(counterfactual explanations) kontrafaktuaalsete selgituste genereerimisalgoritmiga. See meetod aga tõstatab omaette probleemi: kuidas moodustada kontrafaktuaalseid selgitusi, mis on inimestele kõige kasulikumad. Üks variant on kontrafaktuaalsete selgituste genereerimisalgoritmidesse inimlikud eelistused sisse kirjutada. Uurimaks mida inimesed selgituste puhul hindavad, viiakse selle töö raames läbi küsimustik, kus osalejad hindavad kontrafaktuaalsete selgituste üldist kvaliteeti ning vastavust teatud seletatavuse väärtustele (explanatory virtues). Küsimustiku vastustel rakendatud andmeanalüüs osutas võimalusele, et mõõdetud seletatavuse väärtused on omavahel tihedalt seotud ning potentsiaalselt saab mõõdetud väärtused koondada väiksemale arvule faktoritele. Üldiselt väärtustasid inimesed enim selgituste teostatavust (Feasibility). Küsimustiku raames loodud andmestikku ning andmeanalüüsi avastusi saab kasutada tulevaste kontrafaktuaalsete selgituste genereerimisalgoritmide inimsõbralikumaks muutmisel.listelement.badge.dso-type Kirje , Weakly Supervised Segmentation in Medical Imaging: A Counterfactual Approach(Tartu Ülikool, 2024) Shvetsov, Dmytro; Ariva, Joonas, juhendaja; Domnich, Marharyta, juhendaja; Fishman, Dmytro, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. Arvutiteaduse instituutSüvaõpe on muutmas meditsiinilise piltdiagnostika valdkonda. Näiteks täiustatakse süvaõppe mudelitega patoloogiate tuvastamist kompuutertomograafia- ja röntgenpiltidelt. Kahjuks on selliste mudelite treenimine keerukas kuna need eeldavad suurte märgendatud andmestike olemasolu, mida meditsiinilise piltdiagnostika valdkonnas on raske koguda. Käesolev lõputöö proovib seda probleemi lahendada läbi nõrgalt juhendatud semantilise segmenteerimise ja seletatava tehisintellekti tehnikate. Magistritöös kirjeldatakse innovaatilist meetodit nimega kontrafaktuaalne maalimine (Counterfactual Inpainting - COIN), mille käigus pööratakse klassifitseerimismudeli prognoos meditsiinilisele pildile anomaalsest normaalseks läbi patoloogilise piirkonna “üle maalimise” (kustutamisele). Näiteks kui klassifitseerimismudel hindab pildi anomaalseks (ehk patoloogiliseks), siis COIN loob pildist võimalikult minimaalsete muudatustega kontrafaktuaalse pildi, mis pööraks ümber klassifitseerija esialgse ennustuse. Sellise meetodiga saab segmenteerida patoloogiaid vaid pildi tasemel märgenditega, hüljates nii täpsete segmenteerimismaskide kasutamise, mida on keeruline hankida. COIN mudeli tõhusust hinnati Totalsegmentori ja Tartu Ülikooli Kliinikumi kompuutertomograafiapiltide andmestikel, kus segmenteeriti sellega nii tehislike kasvajaid kui ka päris kasvajaid neerudes. Tulemused näitavad et COIN ületab oluliselt traditsioonilisi seletatava tehisintellekti meetodeid nagu ScoreCAM, LayerCAM ja RISE ja ka võrdluseks võetud tavalist kontrafaktuaalmeetodit. Need leiud kinnitavad, et COIN on paljulubav meetod neerukasvajate segmenteerimiseks kompuutertomograafia piltidel, tehes olulise edusammu sügavõppe rakendamisel tervishoiuvaldkonnas, mida piirab märgendatud andmete nappus. Väljatöötatud metoodika mitte ainult ei püüdle meditsiinivaldkonnas nõutava kõrge täpsuse poole, vaid vähendab ka sõltuvust ulatuslikest annoteeritud andmestikest, kasutades ära poolautomaatseid märgistamistehnikaid.