Barbu, Eduard, juhendajaZafra, Raul Vicente, juhendajaKrjutškov, RodionTartu Ülikool. Loodus- ja täppisteaduste valdkondTartu Ülikool. Arvutiteaduse instituut2025-10-202025-10-202025https://hdl.handle.net/10062/116907Masinõppesüsteemide seletatavuse mõiste ulatub arvutiteaduse ajaloos mitme aastakümne taha. Viimase kümnendi jooksul on tehisintellekti üha laialdasem kasutuselevõtt erinevates sektorites aga suurendanud huvi masinõppemudelite tõlgendatavuse vastu. Lisaks pakub usaldusväärse tehisintellekti kontseptsioon tervikliku raamistiku, mis keskendub eetiliste ja vastutustundlike rakenduste arendamisele. See uuring, mis on osa laiemast algatusest Trust-AI, vaatleb, kuidas loomuliku keele dialooge saab kasutada seletatava ja usaldusväärse AI mehhanismina. Varasemate uuringute ülevaatamisel ja suurte keelemudelite uusimate edusammude kaasamisel oleme välja töötanud uuendusliku lahenduse, millel on märkimisväärselt parem keele parsimise täpsus ja mida hinnati praktilises rakenduses Trust-AI raamistikus.enAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttps://creativecommons.org/licenses/by-nc-nd/4.0/Artificial Intelligence (AI)Explainable Artificial Intelligence (XAI)Trustworthy AINatural Language Processing (NLP)Large Language Models (LLM)Conversational Interfaceusaldusväärne tehisintellektloomuliku keele töötlemine (NLP)suured keelemudelid (LLM)vestlusliidesmagistritöödinformaatikainfotehnoloogiainformaticsinfotechnologyExplainability Assistant: Natural Language Interface for Trustworthy AIThesis