Andmebaasi logo
Valdkonnad ja kollektsioonid
Kogu ADA
Eesti
English
Deutsch
  1. Esileht
  2. Sirvi kuupäeva järgi

Sirvi Kuupäev , alustades "2026-04-10" järgi

Filtreeri tulemusi aasta või kuu järgi
Nüüd näidatakse 1 - 2 2
  • Tulemused lehekülje kohta
  • Sorteerimisvalikud
  • Laen...
    Pisipilt
    listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs ,
    Scene understanding in human and computer vision
    (Tartu Ülikooli Kirjastus, 2026-04-10) Khajuria, Tarun; Aru, Jaan, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond
    Inimestel on võime tõlgendada sama visuaalset stseeni paindlikult mitmel moel. Näiteks kinosaalis suudame identifitseerida üksikuid istmeid toolide, kott-toolide või diivanitena, tajudes neid samal ajal ka osana suuremast struktuurist – ridadest ja sektsioonidest, mis määravad kõnniteed. See paindlikkus aitab kaasa ka meie nägemissüsteemi vastupidavusele keerulistes oludes, kasutades struktuuri puuduva teabe järeldamiseks, aga ka selleks, et vajaduse korral ignoreerida stseeni ebaolulisi objekte, et vältida võltsseoseid. Visuaalsest stseenist aru saamise protsessis ei toimu ainult passiivne keskkonnast teabe vastuvõtmine, vaid see hõlmab ka aktiivset teabe kogumist. Selles väitekirjas uurisime inimeste ja masinnägemise sarnasusi ja erinevusi sellises aktiivses stseeni mõistmise protsessis. Selleks lõime esmalt tähtkujudest inspireeritud keerulise nägemisülesande, kus inimesed ja masinalgoritmid püüdsid leida pildil peituvat nõrga signaaliga objekti. Inimesed, kes seda ülesannet lahendasid, kirjeldasid lahendusprotsessi käigus mitme hüpoteesi moodustamist ja järkjärgulist täpsustamist (nt „see võib olla loom“, „see võib olla lennuk“). Teises peatükis uurisime, kuidas seda protsessi saab arvutimudelite abil korrata. Täpsemalt testisime meetodit, mis genereerib tähtkujupiltidel olevate objektide võimalikke tõlgendusi. Võrreldes mudeli ja inimeste sooritust, uurisime, kui hästi see peegeldab inimeste taju. Lõpuks testisime paljusid tehisaru mudeleid selle alusel, kuidas nad töötlevad mitut objekti loomulikes stseenides. See analüüs võimaldas meil tuvastada puudujääke viisis, kuidas need mudelid esitavad stseeni vähem olulisi taustaobjekte, ning teha ettepanekuid nende mudelite paremaks kasutamiseks tehisarusüsteemides. Kokkuvõttes pakuvad selle väitekirja tulemused teadmisi selle kohta, kuidas inimesed ebamäärasest visuaalsest sisendist aru saavad, ning viise, kuidas arvutimudeleid saaks testida ja paremini kujundada selle võime imiteerimiseks. Need tulemused aitavad mõista inimtaju ja luua tehisnägemise süsteeme, mis suudavad enamat kui pelgalt mustreid tuvastada.
  • Laen...
    Pisipilt
    listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs ,
    From data to fair decisions: on ensuring fairness in machine learning models
    (Tartu Ülikooli Kirjastus, 2026-04-10) Sulaiman, Modar; Roy, Kallol, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond
    Masinõppesüsteemid on märkamatult saanud paljude igapäevaste otsuste lahutamatuks osaks. Näiteks otsustatakse nende abil, keda kutsuda töövestlusele, milline laenutaotlus heaks kiita ja millist meditsiinilist järelravi soovitada. Need süsteemid suudavad töödelda tohutuid andmemahte ja teha otsuseid mahus, millega ükski inimene ei suudaks konkureerida. Sellise tõhususega kaasnevad siiski ka riskid: kui alusandmed peegeldavad levinud ühiskondlikke eelarvamusi, võivad nende abil loodud mudelid seada teatud isikuid või rühmi süstemaatiliselt ebasoodsamasse olukorda nende soo, vanuse või etnilise päritolu tõttu. Käesolev väitekiri esitab keerulise, ent otsekohese küsimuse: kuidas luua mudeleid, mis jäävad täpseks, kuid kohtlevad erinevaid rühmi õiglasemalt? Väitekiri läheneb sellele probleemile kolmest teineteist täiendavast vaatenurgast. Esiteks tutvustatakse meetodit The Fairness Stitch (õigluse kiht), mis sekkub sügavate närvivõrkude sisemistesse kihtidesse, selle asemel et piirduda üksnes lõpliku väljundkihi kohandamisega. Sellisel moel sisemist esitusviisi muutes on võimalik oluliselt vähendada varjatud kallutatust, säilitades samal ajal mõistliku ennustustäpsuse. Teiseks pakub töö välja rühmapõhise treenimisskeemi, mis määrab eri demograafiliste rühmade puhul vigadele erinevad karistused, julgustades mudelit toimima usaldusväärselt mitte ainult enamusrühmas, vaid ka rühmades, mis on andmetes tavaliselt alaesindatud või süsteemselt ebasoodsas olukorras. Kolmandaks arendatakse väitekirjas graafipõhist meetodit ebausaldusväärsete treeningsiltide tuvastamiseks ja parandamiseks, pöörates erilist tähelepanu olukordadele, kus mõned rühmad on teistest rohkem mõjutatud suuremast müratasemest või enam kallutatutud märgistamisprotsessist. Koos näitavad need kolm uurimissuunda, et õiglus ei pea olema pelgalt tagantjärele lisatud kaalutlus. Sekkudes mudeli arhitektuuri, treeningueesmärki ja andmete kvaliteeti, on võimalik luua klassifitseerijaid, mis on rühmade lõikes tasakaalustatumad, kuid toimivad üldiselt siiski hästi. Saadud tulemused pakuvad praktilisi tööriistu ja disainipõhimõtteid organisatsioonidele, kes soovivad kasutada masinõpet vastutustundlikult suurt mõju omavate otsuste tegemisel.

DSpace tarkvara autoriõigus © 2002-2026 LYRASIS

  • Teavituste seaded
  • Saada tagasisidet