Analysing Model Attacks in Machine Learning Pipeline
Date
2024
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Tartu Ülikool
Abstract
Masinõppemudelid on märkimisväärselt arenenud ja on lahutamatuks osaks erinevates sektorites, sealhulgas tervishoius, rahanduses ja transpordis. Kuid nende kasutuselevõtt on toonud kaasa haavatavusi, eriti ründavaid rünnakuid, mis manipuleerivad andmetega, et neid mudeleid petta. Käesolev lõputöö uurib masinõppemudelite vastupidavust selliste rünnakute vastu ja uurib Explainable AI (XAI) tehnikate rakendamist mudelite läbipaistvuse ja turvalisuse parandamiseks. Põhjaliku kirjanduse ülevaate kaudu tuvastab see uurimus usaldusväärse tehisintellekti kriitilised põhimõtted, sealhulgas seletatavuse, tehnilise vastupidavuse ja inimliku järelevalve. Metoodika analüüsib süstemaatiliselt ründavaid rünnakuid, kasutades tehnikaid nagu SHAP ja LIME, et hinnata mudelite käitumist erinevates rünnakustsenaariumides. Uurimus tutvustab ka inimjärelevalve armatuurlauda, mis on loodud rünnakute intuitiivsete visualiseerimiste pakkumiseks, aidates paremini mõista ja vähendada haavatavusi. Eksperimentaalsed tulemused toovad esile XAI tõhususe ründavate manipulatsioonide tuvastamisel ja selgitamisel, parandades seeläbi AI süsteemide vastupidavust. Kasutajauuringud toovad esile olulised leiud seoses selgituste rolliga AI süsteemides. Lühikesed selgitused suurendavad märkimisväärselt kasutajate kaasatust, eelistust teabe vastu, rahulolu, tekstilist selgust ja usaldusväärsust võrreldes selgituste puudumisega. Siiski, selgituste pikkuse suurendamine lühikestest pikkadeks annab minimaalselt täiendavat kasu. Need tulemused viitavad sellele, et lühikesed selgitused on väga tõhusad kasutajate usalduse ja kaasatuse suurendamisel AI süsteemidega. See uurimus annab valdkonnale panuse, pakkudes välja tugevad kaitsemehhanismid ründavate rünnakute vastu ja rõhutades inimjärelevalve rolli AI süsteemides. See rõhutab vajadust läbipaistvate, seletatavate ja vastupidavate AI mudelite järele, et tagada nende ohutu ja eetiline kasutuselevõtt kriitilistes rakendustes.
Description
Keywords
Machine Learning Pipeline, Adversarial Machine Learning, AI System Defense, Robustness in AI, Data Sanitisation, AI Transparency, Explainable AI (XAI), Interpretable AI, AI Explanation Methods, AI Decision-Making Explanation, Trustworthy AI, Ethical AI, User-Centered Design, Human-Computer Interaction (HCI), võistlev masinõpe