Aljanaki, Anna, juhendajaChung, Cheng-HanTartu Ülikool. Loodus- ja täppisteaduste valdkondTartu Ülikool. Arvutiteaduse instituut2024-10-042024-10-042024https://hdl.handle.net/10062/105101Süvaõppe mudeli käitumise selgitamine on keeruline. Arvutinägemismudelite puhul on olemas mitu meetodit, millega saab esile tuua piirkonnad, millele võrk pildil keskendub. Muusika klassifitseerimise mudeli puhul ei anna see tavaliselt rahuldavat tulemust, sest heli põhjal treenitud mudelite tõlgendamine peab põhinema mitte visuaalsetel, vaid muusikalistel mõistetel, mis on seotud inimeste jaoks oluliste akustiliste omadustega, nagu helikõrgus, tempo, meloodia, harmoonia. Käesolevas lõputöös pakume välja uut meetodit, mis aitab heli muutes välja selgitada, millised akustilised omadused olid olulised teatud klasside ennustamiseks. Selleks kasutatakse neid vigu, mida mudel muudetud sisendil teeb, ja LIME meetodi.enAttribution-NonCommercial-NoDerivs 3.0 Estoniamusic information retrievalmodel explainabilitydata augmentationmagistritöödinformaatikainfotehnoloogiainformaticsinfotechnologyAudio Transformations Based Explanations (ATBE) for deep learning models trained on musical dataThesis