Andmebaasi logo
Valdkonnad ja kollektsioonid
Kogu ADA
Eesti
English
Deutsch
  1. Esileht
  2. Sirvi kuupäeva järgi

Sirvi Kuupäev , alustades "2025-10-10" järgi

Filtreeri tulemusi aasta või kuu järgi
Nüüd näidatakse 1 - 1 1
  • Tulemused lehekülje kohta
  • Sorteerimisvalikud
  • Laen...
    Pisipilt
    listelement.badge.dso-type Kirje ,
    Practical trustworthy artificial intelligence with human oversight
    (Tartu Ülikooli Kirjastus, 2025-10-10) Ottun, Abdul-Rasheed Olatunji; Flores Macario, Huber Raul, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond
    Kaasaegsed rakendused tuginevad üha enam masin- ja süvaõppele ehk tehisintellektile (AI, ingl artificial intelligence), et suurendada jõudlust, parandada taju ja pakkuda usaldusväärsemat kasutajakogemust. Vaatamata täiustatud arutlusvõimele on AI-mudelid sageli läbipaistmatud, tekitades muret ohutuse osas ja vähendades usaldust. Regulatiivsed raamistikud rõhuvad usaldusväärsele tehisintellektile, mis on arendatud kooskõlas usaldusväärse andmetöötluse (ingl trustworthy computing) printsiipidega: läbipaistvus ja inimjärelevalve. Paraku esineb praktikas olulisi takistusi, mis pärsivad inimjärelvalve ja AI-süsteemide integreerimist. Käesoleva doktoritöö peamiseks uurimisküsimuseks on: Kuidas integreerida inimjärelvalve AI-põhistesse rakendustesse, et jälgida ja parandada nende usaldusväärsust? Püstitatud ülesande lahendamiseks esitame kolm tulemust, millest igaüks keskendub konkreetsele tehnilisele küsimusele vastavas masinõppe etapis. Esiteks, kuna andmete kvaliteet on tehisintellekti otsuste tegemisel kriitilise tähtsusega, toome sisse sotsiaalteadliku liitõppe (SAFL, ingl Socially Aware Federated Learning) hajutatud masinõppe eesmärgil. SAFL juhib mudeli treenimiseks vajalikke andmete valikut koostööpõhiselt, kasutades ära sotsiaalseid dünaamikaid ja ülesannete delegeerimist viisil, mis soodustab inimeste osalust. Põhjaliku kasutajauuringu ja kontseptsiooni tõestava rakenduse tulemused näitavad, et SAFL-i abil saadud inimeste sisend parandab nii andmete kvaliteeti kui ka masinõppemudeli jõudlust. Teiseks, kuna rakendused kaasavad üha enam tehisintellekti komponente, pakume lahenduse nende usaldusväärsuse omaduste jälgimiseks. Jälgides süsteemiarhitektuuride arengut uurime süstemaatiliselt, kuidas saab integreerida usaldusväärsuse mehhanisme kaasaegsetesse süsteemidesse. Kontseptsiooni tõestuseks loome SPATIAL-i – arhitektuuri, mis integreerib usaldusväärsuse mõõdikud AI-põhistesse rakendustesse. SPATIAL kuvab neid mõõdikuid lihtsasti arusaadava kasutajaliidesena, võimaldades vastavatel ekspertidel jälgida AI järeldusloogikat. Empiirilised hinnangud demonstreerivad SPATIAL-i efektiivsust, tuues samas esile usaldusväärsuse omaduste hindamise ja jälgimise keerukuse. Kolmandaks rõhutame inimjärelvalve vajalikkust ka olemasolevate rakenduste jälgimiseks, eriti kui need rakendused toimivad autonoomselt ja laiaulatuslikult. Selleks pakume välja AntiVenom-i – tõhusa ja valdkonna-agnostilise meetodi anomaaliate tuvastamiseks hajutatud tehisintellekti rakendustes. AntiVenom kasutab seadme tasemel jõudlusmõõdikuid, et tuvastada ebakorrapärasusi ja märgistada need inimese poolt läbivaatamiseks. Võrdlus olemasolevate selgitatavate tehisintellekti (XAI, ingl explainable AI) meetoditega näitab AntiVenomi potentsiaali kiire ja ennetava jälgimise jaoks võrreldes traditsiooniliste ja keerukamate meetoditega. Kokkuvõttes panustavad toodud tulemused usaldusväärse AI arengusse, tuues esile nii inimosaluse potentsiaali kui ka keerukust selle rakendamisel järjest autonoomsemaks muutuvates süsteemides.

DSpace tarkvara autoriõigus © 2002-2025 LYRASIS

  • Teavituste seaded
  • Saada tagasisidet