Calafa’, MiriamTartu Ülikool. Loodus- ja täppisteaduste valdkondTartu Ülikool. Tehnoloogiainstituut2026-04-262026-04-262025https://hdl.handle.net/10062/120645Käesolev lõputöö uurib Robot Study Companioni (RSC) emotsionaalse väljenduse disaini, teostust ja hindamist eesmärgiga toetada üliõpilaste motivatsiooni, heaolu ja õpitulemusi. Tuginedes haridusrobootika afektiivse tagasiside teoreetilisele ülevaatele, tuvastati kuus sihitud emotsiooni: viha, rõõm, uhkus, lust, üllatus ja hoolivus – igaüks seostatuna hariduslikult tähenduslike funktsioonidega. RSC-st arendati ROS 2 platvormil täielikult funktsionaalne digitaalne kaksik, mis võimaldab kiiret prototüüpimist ja simulatsiooni. Töötati välja modulaarne emotsionaalse väljenduse süsteem, mis koordineerib värvi, liikumise, näoilmete ja häälekäitumise sünergiat iga emotsiooni puhul. Tuvastustäpsuse ja kasutajakogemuse hindamiseks viidi läbi videopõhine kultuurideülene uuring 47 osalejaga. Osalejad eristasid positiivse ja negatiivse väärtusega emotsioone enam kui 95% täpsusega ning kogutuvastuse määr oli 58,16%. User Experience Questionnaire (UEQ) tulemused olid järjepidevalt positiivsed, kusjuures kõrgeimad hinnangud anti mõistetavusele ja atraktiivsusele. Kvalitatiivsed intervjuud tõid esile multimodaalse disaini tugevused ning parendusvõimalused. Rühmadevahelised analüüsid näitasid süsteemseid erinevusi soo, akadeemilise taseme ja rahvuse lõikes, rõhutades vajadust kohanduvate ja isikupärastatud emotsiooniprofiilide järele. Kõik käesoleva töö raames arendatud tarkvarakomponendid on avaldatud avatud lähtekoodiga, pakkudes tugevat alust edasiseks uurimistööks afektiivses inimese ja roboti interaktsioonis hariduskeskkondades.This thesis investigates the design, implementation, and evaluation of the emotional expression of the Robot Study Companion (RSC) intended to support university students’ motivation, wellbeing, and learning outcomes. Guided by a theoretical review of affective feedback in educational robotics, we identified six target emotions: Anger, Joy, Pride, Fun, Surprise, and Caring, each linked to educationally meaningful functions. We developed a fully functional digital twin of the RSC in ROS 2 to enable rapid prototyping and simulation, and built a modular emotional expression that coordinates color, motion, facial expression, and vocal behavior for each emotional response. To assess recognition accuracy and user experience, we conducted a video-based cross-cultural study with 47 participants. Participants distinguished positive versus negative valence with over 95% accuracy, and achieved an overall emotion-recognition rate of 58.16%. User Experience Questionnaire (UEQ) results were consistently positive, with Perspicuity and Attractiveness rated highest. Qualitative interviews highlighted the strengths of our multimodal design as well as opportunities for refinement. Cross-group analyses revealed systematic differences by gender, academic level, and nationality, underscoring the need for adaptive, personalized emotion profiles. All software developed in this work is released open-source, providing a robust foundation for future research in affective human–robot interaction within educational settings.enAttribution-NonCommercial-NoDerivs 3.0 Estoniahttp://creativecommons.org/licenses/by-nc-nd/3.0/ee/social roboticseducational roboticsROS2magistritöödDesigning Multimodal Emotional Expression for a Robotic Study CompanionRobot˜opiabilise multimodaalse emotsiooniv¨aljenduse disainimineThesis