Analysing Model Attacks in Machine Learning Pipeline
dc.contributor.advisor | Flores, Huber, juhendaja | |
dc.contributor.advisor | Ottun, Abdul-Rasheed, juhendaja | |
dc.contributor.author | Elemosho, Toluwani Mathew | |
dc.contributor.other | Tartu Ülikool. Loodus- ja täppisteaduste valdkond | et |
dc.contributor.other | Tartu Ülikool. Arvutiteaduse instituut | et |
dc.date.accessioned | 2024-10-04T12:32:29Z | |
dc.date.available | 2024-10-04T12:32:29Z | |
dc.date.issued | 2024 | |
dc.description.abstract | Masinõppemudelid on märkimisväärselt arenenud ja on lahutamatuks osaks erinevates sektorites, sealhulgas tervishoius, rahanduses ja transpordis. Kuid nende kasutuselevõtt on toonud kaasa haavatavusi, eriti ründavaid rünnakuid, mis manipuleerivad andmetega, et neid mudeleid petta. Käesolev lõputöö uurib masinõppemudelite vastupidavust selliste rünnakute vastu ja uurib Explainable AI (XAI) tehnikate rakendamist mudelite läbipaistvuse ja turvalisuse parandamiseks. Põhjaliku kirjanduse ülevaate kaudu tuvastab see uurimus usaldusväärse tehisintellekti kriitilised põhimõtted, sealhulgas seletatavuse, tehnilise vastupidavuse ja inimliku järelevalve. Metoodika analüüsib süstemaatiliselt ründavaid rünnakuid, kasutades tehnikaid nagu SHAP ja LIME, et hinnata mudelite käitumist erinevates rünnakustsenaariumides. Uurimus tutvustab ka inimjärelevalve armatuurlauda, mis on loodud rünnakute intuitiivsete visualiseerimiste pakkumiseks, aidates paremini mõista ja vähendada haavatavusi. Eksperimentaalsed tulemused toovad esile XAI tõhususe ründavate manipulatsioonide tuvastamisel ja selgitamisel, parandades seeläbi AI süsteemide vastupidavust. Kasutajauuringud toovad esile olulised leiud seoses selgituste rolliga AI süsteemides. Lühikesed selgitused suurendavad märkimisväärselt kasutajate kaasatust, eelistust teabe vastu, rahulolu, tekstilist selgust ja usaldusväärsust võrreldes selgituste puudumisega. Siiski, selgituste pikkuse suurendamine lühikestest pikkadeks annab minimaalselt täiendavat kasu. Need tulemused viitavad sellele, et lühikesed selgitused on väga tõhusad kasutajate usalduse ja kaasatuse suurendamisel AI süsteemidega. See uurimus annab valdkonnale panuse, pakkudes välja tugevad kaitsemehhanismid ründavate rünnakute vastu ja rõhutades inimjärelevalve rolli AI süsteemides. See rõhutab vajadust läbipaistvate, seletatavate ja vastupidavate AI mudelite järele, et tagada nende ohutu ja eetiline kasutuselevõtt kriitilistes rakendustes. | |
dc.identifier.uri | https://hdl.handle.net/10062/105166 | |
dc.language.iso | en | |
dc.publisher | Tartu Ülikool | et |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Estonia | en |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ee/ | |
dc.subject | Machine Learning Pipeline | |
dc.subject | Adversarial Machine Learning | |
dc.subject | AI System Defense | |
dc.subject | Robustness in AI | |
dc.subject | Data Sanitisation | |
dc.subject | AI Transparency | |
dc.subject | Explainable AI (XAI) | |
dc.subject | Interpretable AI | |
dc.subject | AI Explanation Methods | |
dc.subject | AI Decision-Making Explanation | |
dc.subject | Trustworthy AI | |
dc.subject | Ethical AI | |
dc.subject | User-Centered Design | |
dc.subject | Human-Computer Interaction (HCI) | |
dc.subject | võistlev masinõpe | |
dc.subject.other | magistritööd | et |
dc.subject.other | informaatika | et |
dc.subject.other | infotehnoloogia | et |
dc.subject.other | informatics | en |
dc.subject.other | infotechnology | en |
dc.title | Analysing Model Attacks in Machine Learning Pipeline | |
dc.type | Thesis | en |
Files
Original bundle
1 - 1 of 1