Flores, Huber, juhendajaOttun, Abdul-Rasheed, juhendajaElemosho, Toluwani MathewTartu Ülikool. Loodus- ja täppisteaduste valdkondTartu Ülikool. Arvutiteaduse instituut2024-10-042024-10-042024https://hdl.handle.net/10062/105166Masinõppemudelid on märkimisväärselt arenenud ja on lahutamatuks osaks erinevates sektorites, sealhulgas tervishoius, rahanduses ja transpordis. Kuid nende kasutuselevõtt on toonud kaasa haavatavusi, eriti ründavaid rünnakuid, mis manipuleerivad andmetega, et neid mudeleid petta. Käesolev lõputöö uurib masinõppemudelite vastupidavust selliste rünnakute vastu ja uurib Explainable AI (XAI) tehnikate rakendamist mudelite läbipaistvuse ja turvalisuse parandamiseks. Põhjaliku kirjanduse ülevaate kaudu tuvastab see uurimus usaldusväärse tehisintellekti kriitilised põhimõtted, sealhulgas seletatavuse, tehnilise vastupidavuse ja inimliku järelevalve. Metoodika analüüsib süstemaatiliselt ründavaid rünnakuid, kasutades tehnikaid nagu SHAP ja LIME, et hinnata mudelite käitumist erinevates rünnakustsenaariumides. Uurimus tutvustab ka inimjärelevalve armatuurlauda, mis on loodud rünnakute intuitiivsete visualiseerimiste pakkumiseks, aidates paremini mõista ja vähendada haavatavusi. Eksperimentaalsed tulemused toovad esile XAI tõhususe ründavate manipulatsioonide tuvastamisel ja selgitamisel, parandades seeläbi AI süsteemide vastupidavust. Kasutajauuringud toovad esile olulised leiud seoses selgituste rolliga AI süsteemides. Lühikesed selgitused suurendavad märkimisväärselt kasutajate kaasatust, eelistust teabe vastu, rahulolu, tekstilist selgust ja usaldusväärsust võrreldes selgituste puudumisega. Siiski, selgituste pikkuse suurendamine lühikestest pikkadeks annab minimaalselt täiendavat kasu. Need tulemused viitavad sellele, et lühikesed selgitused on väga tõhusad kasutajate usalduse ja kaasatuse suurendamisel AI süsteemidega. See uurimus annab valdkonnale panuse, pakkudes välja tugevad kaitsemehhanismid ründavate rünnakute vastu ja rõhutades inimjärelevalve rolli AI süsteemides. See rõhutab vajadust läbipaistvate, seletatavate ja vastupidavate AI mudelite järele, et tagada nende ohutu ja eetiline kasutuselevõtt kriitilistes rakendustes.enAttribution-NonCommercial-NoDerivs 3.0 EstoniaMachine Learning PipelineAdversarial Machine LearningAI System DefenseRobustness in AIData SanitisationAI TransparencyExplainable AI (XAI)Interpretable AIAI Explanation MethodsAI Decision-Making ExplanationTrustworthy AIEthical AIUser-Centered DesignHuman-Computer Interaction (HCI)võistlev masinõpemagistritöödinformaatikainfotehnoloogiainformaticsinfotechnologyAnalysing Model Attacks in Machine Learning PipelineThesis