Andmebaasi logo
Valdkonnad ja kollektsioonid
Kogu ADA
Eesti
English
Deutsch
  1. Esileht
  2. Sirvi autori järgi

Sirvi Autor "Sulaiman, Modar" järgi

Tulemuste filtreerimiseks trükkige paar esimest tähte
Nüüd näidatakse 1 - 1 1
  • Tulemused lehekülje kohta
  • Sorteerimisvalikud
  • Laen...
    Pisipilt
    listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs ,
    From data to fair decisions: on ensuring fairness in machine learning models
    (Tartu Ülikooli Kirjastus, 2026-04-10) Sulaiman, Modar; Roy, Kallol, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond
    Masinõppesüsteemid on märkamatult saanud paljude igapäevaste otsuste lahutamatuks osaks. Näiteks otsustatakse nende abil, keda kutsuda töövestlusele, milline laenutaotlus heaks kiita ja millist meditsiinilist järelravi soovitada. Need süsteemid suudavad töödelda tohutuid andmemahte ja teha otsuseid mahus, millega ükski inimene ei suudaks konkureerida. Sellise tõhususega kaasnevad siiski ka riskid: kui alusandmed peegeldavad levinud ühiskondlikke eelarvamusi, võivad nende abil loodud mudelid seada teatud isikuid või rühmi süstemaatiliselt ebasoodsamasse olukorda nende soo, vanuse või etnilise päritolu tõttu. Käesolev väitekiri esitab keerulise, ent otsekohese küsimuse: kuidas luua mudeleid, mis jäävad täpseks, kuid kohtlevad erinevaid rühmi õiglasemalt? Väitekiri läheneb sellele probleemile kolmest teineteist täiendavast vaatenurgast. Esiteks tutvustatakse meetodit The Fairness Stitch (õigluse kiht), mis sekkub sügavate närvivõrkude sisemistesse kihtidesse, selle asemel et piirduda üksnes lõpliku väljundkihi kohandamisega. Sellisel moel sisemist esitusviisi muutes on võimalik oluliselt vähendada varjatud kallutatust, säilitades samal ajal mõistliku ennustustäpsuse. Teiseks pakub töö välja rühmapõhise treenimisskeemi, mis määrab eri demograafiliste rühmade puhul vigadele erinevad karistused, julgustades mudelit toimima usaldusväärselt mitte ainult enamusrühmas, vaid ka rühmades, mis on andmetes tavaliselt alaesindatud või süsteemselt ebasoodsas olukorras. Kolmandaks arendatakse väitekirjas graafipõhist meetodit ebausaldusväärsete treeningsiltide tuvastamiseks ja parandamiseks, pöörates erilist tähelepanu olukordadele, kus mõned rühmad on teistest rohkem mõjutatud suuremast müratasemest või enam kallutatutud märgistamisprotsessist. Koos näitavad need kolm uurimissuunda, et õiglus ei pea olema pelgalt tagantjärele lisatud kaalutlus. Sekkudes mudeli arhitektuuri, treeningueesmärki ja andmete kvaliteeti, on võimalik luua klassifitseerijaid, mis on rühmade lõikes tasakaalustatumad, kuid toimivad üldiselt siiski hästi. Saadud tulemused pakuvad praktilisi tööriistu ja disainipõhimõtteid organisatsioonidele, kes soovivad kasutada masinõpet vastutustundlikult suurt mõju omavate otsuste tegemisel.

DSpace tarkvara autoriõigus © 2002-2026 LYRASIS

  • Teavituste seaded
  • Saada tagasisidet