How can artificial intelligence be risky?
dc.contributor.advisor | Volberg, Mats, juhendaja | et |
dc.contributor.author | Luik, Taavi | et |
dc.contributor.other | Tartu Ülikool. Humanitaarteaduste ja kunstide valdkond | et |
dc.contributor.other | Tartu Ülikool. Filosoofia osakond | et |
dc.date.accessioned | 2019-06-17T13:18:37Z | |
dc.date.available | 2019-06-17T13:18:37Z | |
dc.date.issued | 2019 | |
dc.description | Käesolevas töös uurin ma tehisintellektiga (TI) seotud riske – kuidas saaks TI viia selleni, et me kaotame midagi, mida me väärtustame? Ma rõhutan, et TI defineerimisel ei tohi me olla liiga inimkesksed ega nõuda üldise intelligentsuse olemasolu. Ka inimesest väga erinevad ja väga kitsad tehissüsteemid võivad olla piisavalt võimsad, et kujutada endast ohtu. Mitmed ohud tulenevad TI töö ettekavatsemata tagajärgedest, ent mitmed aktuaalsed ohud tulenevad TI kui tööriista kasutamisest mänguteoreetilistes null või negatiivse summaga mängudes. Ma rõhutan, et tehisintellekti ei tuleks käsitleda abstraktse tulevikunähtusena, vaid juba praegu eksisteerivana ja analüüsi vajavana. Inimeste väärtused ja eesmärgid on tihti omavahel konfliktis, ning see fakt vajab mingit lahendust, sest tehnoloogia areng kiireneb, võimaldades saavutada järjest kergemini erinevaid eesmärke, ent meie võime muutustega kohaneda ei jõua sellega sammu pidada. Ühe võimaliku osalise lahendusena konfliktide olemasolule võib TI pakkuda meile võimalust taashinnata meie instrumentaalseid eesmärke ja väärtusi – on võimalik, et see, mida me seni soovisime saavutada, pole enam relevantne. | et |
dc.description.abstract | In this thesis, I research risks associated with artificial intelligence (AI) – how could AI lead to us losing something we value? I stress that when defining AI, we cannot be too human-centric or require the existence of general intelligence. Narrow AI systems that are very different from humans can be powerful enough to pose risks. Many risks originate from unintended consequences, yet many actual risks come from using AI as a tool in zero or negative sum games, to use concepts of game theory. I stress that AI should not be treated so much as an abstract phenomena of the future, but as an already existing phenomena that requires analysis. The values and goals of humans are often in conflict and this requires a solution, since the progress of technology is accelerating, enabling more different goals to be achieved, and we are often unable to keep up with this pace. AI can provide a partial solution to the existence of instrumental conflicts by enabling us to reconsider them – it is possible that what we have desired so far is no longer relevant. | en |
dc.description.uri | https://www.ester.ee/record=b5239728*est | et |
dc.identifier.other | 20.03.02 LUI 01 | et |
dc.identifier.uri | http://hdl.handle.net/10062/64425 | |
dc.language.iso | eng | et |
dc.publisher | Tartu Ülikool | et |
dc.rights | openAccess | et |
dc.rights | Autorile viitamine + Mitteäriline eesmärk + Tuletatud teoste keeld 3.0 Eesti | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ee/ | * |
dc.subject | philosophy | en |
dc.subject | artificial intelligence | en |
dc.subject.other | bakalaureusetööd | et |
dc.subject.other | intellektitehnika | et |
dc.subject.other | filosoofia | et |
dc.title | How can artificial intelligence be risky? | en |
dc.type | Thesis | et |