Personalized concept-based image classification explanation framework

Date

2023

Journal Title

Journal ISSN

Volume Title

Publisher

Tartu Ülikool

Abstract

Viimastel aastatel on masinõppe mudelid leidnud üha laiapõhisemat kasutust. Mudelite selgitamine on väga oluline, selleks et lõppkasutajaid neid usaldaksid ning selleks, et oleks võimalik vältida algoritmilist kallutatust. Enamik praeguseid seletusmeetodeid tuginevad eelkõige üksikutel pikslitel või üksikutel muutujatel, muutes nende tulemuste inimestele seletamise keeruliseks. Käesoleva magistritöö eesmärgiks oli tutvustada uuendusliku lokaalsete selgituse raamistiku. Raamistik võimaldab kasutajatel luua isikupärastatud seletusi pildiklassifitseerimise mudelile kasutades nutikat kontseptide pakkumise protsessi. Kasutaja poolt valitud kontseptsioone kasutatakse pinnapealse otsustuspuu treenimiseks. Hiljem kasutatakse seda otsustuspuud mustakasti mudeli seletamiseks. Lisaks sellele võimaldab raamistik kasutajatel selgitusi uuesti seletada lubades neil muuta raamistikule kättesaadavaid mõisteid. Raamistikul on võimekust pakkuda ka kontrafaktilisi selgitusi. Raamistiku tulemuslikkust testiti kasutades ResNet-50 mudelit ning ADE20K andmestiku. Eksperimendi tulemusena selgus, et selle andmestiku ning mudeli puhul on raamistiku usaldusväärsus LIME omast suurem. Selgituste intuitiivsuse ning tähenduslikkuse mõõtmiseks kasutati inimkeskseid hindamismeetodeid. Eksperimendi tulemusel selgus et raamistiku intuitiivsus on kõrgem kui LIME oma.

Description

Keywords

seletatav tehisintellekt, mõistete põhised seletused

Citation