Sirvi Autor "Anbarjafari, Gholamreza" järgi
Nüüd näidatakse 1 - 19 19
- Tulemused lehekülje kohta
- Sorteerimisvalikud
listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Artificial Intelligence Based Profession Prediction Using Facial Analysis(2020) Mert, Gülce Naz; Anbarjafari, Gholamreza; Karabulut, DoğuşYouth unemployment is a global problem which affects millions of young people. One of the reasons for this is that young people are often misguided, or have adopted professions that are not a good fit for them. If an association between facial features and certain professions can be established using artificial intelligence, it is possible to guide young people into suitable career paths, providing them a better future with more satisfying jobs. In order to achieve this goal, different neural network models that employ deep learning and transfer learning were built, alongside with a dataset consisting of face images of people who are professionals in their fields. This data was then fed into these neural networks, testing effects of different networks and their parameters on the accuracy of predicting professions based on face images. The experiments however, did not lead to high accuracy rates. The results and networks are then analyzed and limitations are brought up. The possible solutions to what could have caused low accuracy rates are discussed. In estonian: Noorte tööpuudus on globaalne probleem mis mõjutab miljoneid noori. Üks põhjustest on kuna noori inimesi on tihti valesti juhitud või nad on omastanud ameteid mis pole neile sobilikud. Kui on võimalik leida assotsiatsioone näojoonte ja kindlate ametite vahel kasutades tehisintellekti, kas siis on võimalik juhtida noori inimesi parematele ametikohtadele, varustades neid parema tulevikuga, kus on rohkem rahuldavad töökohti. Et sellise saavutusega hakkama saada, ehitati erinevaid närvivõrgud mudeleid mis kasutavad süvaõpet ja ülekandmise õpe koos andmetega, mis koosnevad inimeste näo piltidest kes on oma ala professionaalid. See informatsioon siis sisestati närvi võrkudesse, katsetades erinevate võrkude efekte ja nende parameetreid näo järgi ameti valimise täpsuses. See katse kahjuks ei viinud kõrge täpsusega tulemusteni. Tulemused ja võrgud siis analüüsiti ja leiti limiidid. Võimalike lahendusi arutatakse selle üle mis võiksid tekitada vähese täpsusega tulemusi.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Deep learning based protein-protein interaction prediction using universal protein sequence representations(2020) Jermakovs, Klavs; Morgunov, Alekszej; Loog, Mart; Anbarjafari, GholamrezaProtein-Protein Interactions (PPI) govern key biological events in the cell and serve as a basis for understanding disease mechanisms and developing treatments. Currently used PPI predictive methods that rely on information from multiple sequence alignments are ineffec-tive on proteins with few known homologs. Recent advances in self-supervised learning per-mit extracting complex features directly from the protein sequence (sequence embeddings) for later use with predictive algorithms. In this thesis, several sequence embedding methods were used in combination with Siamese deep neural network-based classifier architecture for PPI prediction. An average AUROC score of 0.70 on C1 test set suggests that more complex embedding methods such as UniRep and PLUS-RNN are able to extract more in-formation relevant to PPI prediction from the protein sequence. Performance of all methods dropped markedly for C2 and C3 test sets, 0.62 for UniRep and 0.58 for PLUS-RNN, sug-gesting that further improvements are necessary to develop models that are more general in their coverage of the protein sequence space. The results of this work confirm that using pre-trained protein representations with deep learning based classifiers is a viable approach to PPI prediction from sequence alone. In Estonian: Proteiin-proteiini vastastiktoimed (PPI) juhivad olulisi bioloogilisi etappe rakus ning on aluseks haigusmehhanismide mõistmisel ja ravimite tootmisel. Hetkel kasutusel olevad PPI ennustamise meetmed, mis sõltuvad mitme järjestuse joondamise teabest, on ebatõhusad proteiinidel, millel on vähe kaardistatud homolooge. Viimased edusammud iseenesliku õppimise vallas lubavad eraldada keerulisi eripärasusi otse proteiini sekventsist (sekventsi kodeerimine), et neid hiljem ennustavate algoritmidega rakendada. Selle lõputöö käigus kasutati mitmeid sekventsi kodeerimise meetodeid koos Siiami sügava närvivõrgu põhise PPI ennustamise algoritmiga. Keskmine AUROCi skoor 0.70 C1 testandmestikus viitab, et keerulisemad kodeerimise meetodid nagu UniRep ja PLUS-RNN, suudavad proteiini sekventsist rohkem PPI ennustamisele asjakohast informatsiooni eraldada. Kõigi meetodite täpsus langes märkimisväärselt C2 ja C3 testandmestikes, 0.62 UniRepi ja 0.58 PLUS-RNNi puhul. See näitab, et üldisema kattuvusega proteiini sekventsi mudelite arendamiseks on vaja teha edasisi täiendusi. Selle töö tulemused tõestavad, et eeltreenitud proteiini kujutiste kasutamine koos sügavõppel põhinevate klassifitseerijatega, on võimalik lähenemine PPI ennustamisele ainult sekventsi põhjal.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Dynamic Rate Allocation of Interactive Multi-View Video with View-Switch Prediction(Tartu Ülikool, 2016) Sarkar, Suman; Anbarjafari, Gholamreza; Ozcinar, Cagri; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutIn Interactive Multi-View Video (IMVV), the video has been captured by numbers of cameras positioned in array and transmitted those camera views to users. The user can interact with the transmitted video content by choosing viewpoints (views from different cameras in the array) with the expectation of minimum transmission delay while changing among various views. View switching delay is one of the primary concern that is dealt in this thesis work, where the contribution is to minimize the transmission delay of new view switch frame through a novel process of selection of the predicted view and compression considering the transmission efficiency. Mainly considered a realtime IMVV streaming, and the view switch is mapped as discrete Markov chain, where the transition probability is derived using Zipf distribution, which provides information regarding view switch prediction. To eliminate Round-Trip Time (RTT) transmission delay, Quantization Parameters (QP) are adaptively allocated to the remaining redundant transmitted frames to maintain view switching time minimum, trading off with the quality of the video till RTT time-span. The experimental results of the proposed method show superior performance on PSNR and view switching delay for better viewing quality over the existing methods.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Edge information based object detection and classification(Tartu Ülikool, 2016) Tarvas, Karl; Anbarjafari, Gholamreza; Rasti, Pejman; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutThis thesis presents work regarding the development a computationally cheap and reliable edge information based object detection and classification system for use on the NAO humanoid robots. The work covers ground detection, edge detection, edge clustering and cluster classification, the latter task being equivalent to object recognition. Numerous novel improvements are proposed, including a new geometric model for ground detection, a joint edge model using two edge detectors in unison for improved edge detection, and a hybrid edge clustering model. Also, a classification model is outlined along with example classifiers and used values. The work is illustrated graphically where applicable.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Embedded system for real-time emotional arousal classification(Tartu Ülikool, 2020) Rodionov, Kirill; Anbarjafari, Gholamreza; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutWe, humans, can distinguish the emotions of others with ease and we always expect any sort of emotional response during a conversation. Machines, however, do not possess emotion related skills, which makes human-machine interactions feel alien and soulless. Therefore, development of an efficient emotion recognition system is one of the crucial steps towards human-like artificial intelligence. A common person can also find use in emotion recognition. It would be a great help to the people, who by various reason either have weak control over own emotions or devoid of any ability to perceive emotions of others. This thesis focuses on creating a solution based on compact hardware to classify emotions in relation to its level of arousal. For this, theory concerning the emotions and their classifications were gathered, after which numerous methods of machine learning and feature description were reviewed and tried out. The methods list support vector machines, random forests, facial landmark feature extraction and histogram of oriented gradients. The project has came to a halt halfway through due to poor results: small scale hardware appeared unsuitable for extensive machine learning operations. It can be resumed with the possibility of introducing another set of hardware purely for recognition models training and leaving the compact one deal with pre-made model. In estonian: Me, inimesed, oskame kergelt tajuda teiste emotsioone, ning ootame mingi emotsionaalset tagasisidet suhtlemise korral. Masinad, kuid, ei oma emotsioonidega seotud oskust, mistõttu inimese ja masina vastastikmõju tundub hingetu ja võõrana. Seepärast, tõhusa emotsiooni tunnustamise arendus on üks ülioluline samm inimesesarnase tehisintellekti suuna. Tava inimene ka saab leida kasu emotsiooni tunnustamises. See saab aidata inimesi, kellel on erinevate põhjuste tõttu nõrk kontroll oma emotsioonide üle või nad ei saa teiste emotsioone tundma. Käesolev töö keskendub kompaktse riistvara baseeritud lahenduse peale emotsiooni liigitamiseks sõltuvalt temast erutusest. Selleks, emotsiooni puudutav teooria oli kogutud, mille pärast arvukad masinõppimise ja tunnuste ekstraheerimise meetodid olid vaadeldatud ja ära proovitud. Need meetodid on tugivektor-masinad, otsustusmetsad, näoorientiiri tunnuste ekstraheerimine ja suunatud gradientide histogramm. Kehva tulemuste tõttu projekt jäi seisma: väikese mastaabi riistvara kujunes vimetuks laiaulatusliku masinõppimise sooritamise jaoks. Seda saab jätkata, kui lisada projekti võimeka riistvara, et ta treeniks tajumiste muudelit ja edastaks kompaktsele riistvarale juba eeltreenitud muudelit rakendamiseks.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , English-Estonian Machine Translation: Evaluation Across Different Models and Architectures(Tartu Ülikool, 2020) Islam, Md Rezwanul; Anbarjafari, Gholamreza; Sait Arslan, Hasan; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutThis thesis is based on three main objectives: at first, the implementation of RNMT+ archi-tecture with Relational-RNN model. This is an interaction between this architecture and the RNN model. Secondly, train three different translation models based on RNMT+, Trans-former, and sequence to sequence architectures. Previously, we have witnessed the perfor-mance comparison among RNMT+ with LSTM, Transformer, seq2seq, etc. Finally, evalu-ate the translation model based on training data. When implementing RNMT+, the core idea was to use a newer type of Recurrent Neural Network (RNN) instead of a widely used LSTM or GRU. Besides this, we evaluate the RNMT+ model with other models based on state-of-the-art Transformer and Sequence to Sequence with attention architectures. This evaluation (BLEU) shows that neural machine translation is domain-dependent, and translation based on the Transformer model performs better than the other two in OpenSubtitle v2018 domain while RNMT+ model performs better compared to other two in a cross-domain evaluation. Additionally, we compare all the above-mentioned architectures based on their correspond-ing encoder-decoder layers, attention mechanism and other available neural machine translation and statistical machine translation architectures. In estonian: See lõputöö põhineb kolmel põhieesmärgil: alguses RNMT + arhitektuuri rakendamine Relatsioon-RNN-mudeli abil. See on interaktsioon selle arhitektuuri ja RNN-mudeli vahel. Teiseks, koolitage kolme erinevat tõlkemudelit, mis põhinevad RNMT +, Trafo ja järjestusearhitektuuridel. Varem oleme olnud tunnistajaks RNMT + jõudluse võrdlusele LSTM, Transformeri, seq2seq jne abil. Lõpuks hinnake tõlkemudelit koolitusandmete põhjal. RNMT + rakendamisel oli peamine idee kasutada laialdaselt kasutatava LSTM või GRU asemel uuemat tüüpi korduvat närvivõrku (RNN). Lisaks hindame RNMT + mudelit koos teiste mudelitega, mis põhinevad tipptehnoloogial Transformer ja Sequence to Sequence koos tähelepanu arhitektuuridega. See hinnang (BLEU) näitab, et neuraalne masintõlge on domeenist sõltuv ja muunduril Transformer põhinev tõlge toimib paremini kui ülejäänud kaks OpenSubtitle v2018 domeenis, samal ajal kui RNMT + mudel toimib paremini kui ülejäänud kaks domeenidevahelist hindamist. Lisaks võrdleme kõiki ülalnimetatud arhitektuure nende vastavate kodeerija-dekoodri kihtide, tähelepanu mehhanismi ja muude saadaolevate närvi masintõlke ning statistiliste masintõlke arhitektuuride põhjal.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Entroopial Põhinev Vastupidav Vesimärgi Algoritm(2015) Laur, Lauri; Anbarjafari, Gholamreza; Agoyi, MaryTänu aina kasvavale multimeedia andmeedastus mahtudele Internetis, on esile kerkinud mured turvalisusest ja piraatlusest. Digitaalse meedia paljundamise ja muutmise maht on loonud vajaduse digitaalse meedia vesimärgistamise järgi. Selles töös on tutvustatud vastupidavaid vesimärkide lisamise algoritme, mis lisavad vesimärgid madala entroopiaga pildi osadesse. Välja pakutud algoritmides jagatakse algne pilt blokkidesse ning arvutatakse iga bloki entroopia. Kõikide blokkide keskmine entroopia väärtus valitakse künniseks, mille järgi otsustatakse, millistesse blokkidesse vesimärk lisada. Kõik blokid, mille entroopia on väiksem kui künnis, viiakse signaali sageduse kujule kasutades Discrete Wavelet Transform algoritmi. Madala sagedusega sagedusvahemikule rakendatakse Chirp Z-Transform algoritmi ja saadud tulemusele LU-dekompositsiooni või QR-dekompositsiooni. Singular Value Decomposition meetodi rakendamisel diagonaalmaatriksile, mis saadi eelmisest sammust, saadakse iga bloki vastav väärtus. Vesimärk lisatakse pildile, liites iga bloki arvutatud väärtusele vesimärgi Singular Value Decomposition meetodi tulemused. Kirjeldatud algoritme testiti ning võrreldi teiste tavapärast ning uudsete vesimärkide lisamise tehnoloogiatega. Kvantitatiivsed ja kvalitatiivsed eksperimendid näitavad, et välja pakutud meetodid on tajumatud ning vastupidavad signaali töötlemise rünnakutele.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Facial Expression Recognition using Neural Network for Dyadic Interaction(Tartu Ülikool, 2020) Sham, Abdallah Hussein; Ozcinar, Cagri; Tikka, Pia; Anbarjafari, Gholamreza; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutComputers are machines that don’t share emotions as humans do. With the help of Machine Learning (ML) and Artificial Intelligence (AI), social robots can become a reality. These robots are currently capable of interacting with people at a certain level, but not exactly as a person would do. For them to reach that level, they would need to understand more about how people interact daily and to learn from the dyadic interaction of two people would be a good option. Participants’ facial expressions are the main features that can be retrieved from dyadic interaction and this can be done using a trained Deep Neural Network (DNN) model. The DNN model, known as the Mini-Xception, is trained in this thesis using a dataset that has been pre-processed and can then be tested on images. Using a face detector algorithm, the model will be able to detect a person’s facial expression on the image. After successful image results, the model can be tested using a different medium. First, the tests are carried out using a webcam, then videos with more than one participant. Since people react to expressions, their reactions can also be caused by a context in which, for example, sad news would be the reason for sad emotion. The results of the tests will, therefore, be used for analysis where a correlation can be constructed between facial expressions and context.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Human Activity Recognition Based Path Planning For Autonomous Vehicles(Tartu Ülikool, 2020) Tammvee, Martin; Anbarjafari, Gholamreza; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutHuman activity recognition (HAR) is wide research topic in a field of computer science. Improving HAR can lead to massive breakthrough in humanoid robotics, robots used in medicine and in the field of autonomous vehicles. The system that is able to recognise human and its activity without any errors and anomalies, would lead to safer and more empathetic autonomous systems. During this thesis multiple neural networks models, with different complexity, are being investigated. Each model is re-trained on the proposed unique data set, gathered on automated guided vehicle (AGV) with the latest and the modest sensors used commonly on autonomous vehicles. The best model is picked out based on the final accuracy for action recognition. Best models pipeline is fused with YOLOv3, to enhance the human detection. In addition to pipeline improvement, multiple action direction estimation methods are proposed. The action estimation of the human is very important aspect for self-driving car collision free path planning.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Liikuvate objektide tuvastamine ja jälgimine kasutades dünaamilist esiplaani ja tagaplaani eraldamist liiklusanalüüsi eesmärgiks mobiilse seadmetega(2016) Prokopov, Anton; Anbarjafari, Gholamreza; Salumaa, PriitTöö kirjeldab automaatset esiplaani-tagaplaani tuvastamist edasise liikluse anal uüüsimise eesm ärgil. Projekti põhieesm ärgiks on tuvastada ja rakendada tagaplaani eemaldamise algoritmi, mis tugineb Gaussi segumudelil selleks, et sooritada robustset tagaplaani lahutamist reaalajas. Taoline s üsteem on võimeline ära tundma liikuvaid objekte videojadas kasutades ainult tavalist kaamerat. Rakendus oli esialgu teostatud arvutil C++ OpenCV teegi abil. Algoritmi kood tõlgiti selleks, et see oleks k äivitatav Android seadmel.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Naeratuse detektor näo kontrollpunktide liikumise põhjal(2014) Traumann, Andres; Anbarjafari, GholamrezaInimese ja arvuti suhtlus on kahtlemata tänapäeva ühiskonna väga tähtis osa. Et seda veelgi parandada on võimalik luua süsteeme, kus arvuti reageerib inimese liigutustele või näoilmetele. Naeratamine on ilmselt näoilme, mis annab inimese kohta kõige rohkem informatsiooni. Selles lõputöös kirjeldame algoritmi, mis suudab tuvastada seda, kui inimene naeratab. Selleks leiame kõigepealt Viola-Jones'i algoritmi abil näo asukoha. Seejärel leiame vajalikele näoosadele vastavad kontrollpunktid ning jälgime nende liikumist järgmiste videokaadrite jooksul. Tuvastatud liikumise järgi otsustab algoritm, kas inimene naeratab või mitte.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , NAO humnoid robotite värvide kalibreerimise, väravate tuvastamise- ja lokaliseerimissüsteemide arendamine(2015) Bolotnikova, Anastasia; Anbarjafari, GholamrezaSelle lõputöö teemaks on autonoomsete robotite jalgpalli tarkvara arendamine.Vaatluse all on teemad nagu värvide kalibreerimine, objetkituvastus ja lokaliseerimine. Uus YUV värviruumi põhine automaatne värvide kalibreerimine on pakutud. Esitatakse detailne kirjeldus automaatse värvide kalibreerimise algoritmi implemenmtreerimisest koos visuaalsete näidetega, mis illustreerivad algoritmi toimimist. Samuti räägitakse täpsemalt muutustest, mis on implementeeritud väravate tuvastamise moodulis ja põhjustest nende muudatuste taga, andes hea ülevaate objekti tuvastamise algoritmi loogikast. Kirjeldatakse hetkel kasutatavat lokaliseerimissüsteemi ja pakutakse välja ning seletatakse lokaliseerimissüsteem parandamise tehnikat.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Neural Networks Based Automatic Content Moderation on Social Media(Tartu Ülikool, 2020) Karabulut, Dogus; Ozcinar, Cagri; Anbarjafari, Gholamreza; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutMillions of users produce and consume billions of content on social media. Therefore, humanreviewed content moderation is not achievable in such volume. Automating content moderation is a scalable solution for social media platforms. In this thesis work, we propose a neural networks based automatic content moderation pipeline. Our solution consists of two main parts: the first part that classifies the content into granular content classes and a second part that automatically obfuscates the part of the image that might be inappropriate for the target audience. The proposed solution is cost-efficient in terms of human labour. Our classification network is trained with automatically labelled data using noise-robust techniques. Our automatic obfuscation algorithm uses the information obtained from the classification network and does not require additional annotation or supplementary training. This obfuscation algorithm presents a novel-use case to the state-of-the-art.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Privacy preserving using face replacement-based image anonymisation tool(2020) Popens, Maris; Karabulut, Doğuş; Anbarjafari, GholamrezaThe General Data Protection Regulation that was implemented in 2018 put increased stress on online privacy of people. This increased the pressure on social media platforms to protect privacy and follow the new set of guidelines. Currently, the only possible tool for preserving personal privacy is censorship, which either covers up or blurs out a part of an image that could potentially conceal vital details. This thesis proposes a proof of concept for a solution that could keep the image undisrupted while preserving the privacy of the person. This potential solution replaces the face with a generated face that lacks distinguishing features. This thesis describes the steps required to carry out face replacement. It takes advantage of precise facial detection in combination with a face collage that was generated by averaging copious amounts of facial images. The result is an image that still has all its details while preserving the privacy of the person. In estonian: Isikuandmete kaitse üldmäärus, mis võeti kasutusele aastal 2018, rõhutas inimeste privaatsust veebis. See nõudis, et sotsiaalmeedia kanalid peavad kaitsma inimeste privaatsust ja järgima uusi suuniseid. Hetkel ainuke vahend eraelu privaatsuse säilitamiseks on tsensuur, mis katab või hägustab osa pildist, kuid võib potentsiaalselt varjata tähtsaid detaile. Selles lõputöös esitletakse lahenduse kontseptsioon, mis ei moonda pilti, kuid säilitab inimese privaatsuse. See potentsiaalne lahendus asendab inimese näo genereeritud näoga, millel puuduvad eristatavad iseärasused. Selles lõputöös kirjeldatakse vajalikke etappe, et teostada näovahetust. See kasutab täpset näotuvastust koos näokollaažiga, mis loodi mitmete nägude kokku ühtlustamise teel. Tulemuseks on pilt, mis sisaldab kõiki vajalikke detaile, kuid säilitab inimese privaatsuse.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Real-Time Ensemble Based Face Recognition System for Humanoid Robots(Tartu Ülikool, 2016) Samuel, Kadri; Anbarjafari, Gholamreza; Bolotnikova, Anastasia; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutHumanoid robots are being used in many industrial and domestic application in which human-robot interaction plays an important role. One of the important existing challenges is developing an accurate real-time face recognition system which is not required to be computationally expensive. In this research work a real-time face recognition system which requires low computational complexity is proposed. For this purpose, this thesis is investigating block processing of local binary patterns of the face images captured by NAO robot, a humanoid. For test purposes, the proposed method is adopted on NAO robot and tested under realworld conditions. The experimental results through this thesis are showing that the proposed face recognition algorithm compares favorably to the conventional and state-of-the-art techniques.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Real-Time Expression Analysis of Students in a Classroom Using Facial Emotion Recognition(Tartu Ülikool, 2020) Lominadze, Andro; Anbarjafari, Gholamreza; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutLife is getting more relied on computers. People create new machines and programs to make their lives easier. Devices are involved in a daily routine, so it might be useful if they were capable of understanding human’s verbal or even emotional expressions. Nowadays, computers can learn almost anything and can help to analyze the surrounding world sometimes better than the human sense. The following study can be used while doing a presentation or giving a speech in front of a big audience. It allows the user to be aware of the emotional condition of attending society. During the speech, it is almost impossible to observe every single face of the audience and guess how do they feel; computer vision techniques can do this job for humans. This framework consists of three main parts. In the first part, a pre-trained face detector model collects all the faces seen in the camera and assigns unique IDs. Each face is tracked during the whole video stream using and developing a Simple object tracking algorithm called Centroid Tracker. This tracker relies on a Euclidean distance measurement between the location of object centroid within the current and previous frame of video. The second part of this thesis is Facial Expression Recognition (FER). For this part, Convolutional Neural Network (CNN) is trained over the FER2013 data set. The model is fed a set of face images taken from the previous step, successfully classifies seven different emotional states. The third part stores the data of emotions for each person in such a way that it could be easily understandable for humans. The provided information contains the number of attending people, their facial expressions and overall mood in the audience. By this information, the user gets feedback about his/her speech. This feedback might help people improve presentation skills for the future or even change the presenting style immediately to increase the interest in the audience. In Estonian: Meie aja elu sõltub arvutitest üha enam. Inimesed loovad oma elu lihtsustamiseks uusi masinaid ja programme. Seadmed osalevad meie igapäevases rutiinis, nii et kuigi me oleme nende masinate loojad, vajame neid, et mõista meie suulisi või isegi emotsionaalseid väljendeid. Tänapäeval saavad arvutid õppida peaaegu kõike ja aitavad meil ümbritsevat maailma mõnikord isegi paremini analüüsida, kui teeme seda inimlike meelte järgi. Järgnevat uuringut saab kasutada ettekande tegemisel või suure publiku ees kõne pidamisel. See võimaldab kasutajal olla teadlik ühiskonnas käimise emotsionaalsest olukorrast. Kõne ajal on peaaegu võimatu jälgida iga nägu publikus ja arvata, kuidas nad end tunnevad; arvuti nägemise tehnikad teevad selle töö meie eest. See raamistik koosneb kolmest põhiosast. Esimeses osas kogub eelkoolituse saanud näotuvastuse mudel kõik kaameras nähtud näod ja määrab ainulaadsed ID-d. Iga nägu jälgitakse kogu videovoo jooksul, kasutades ja arendades lihtsat objektide jälgimise algoritmi nimega Centroid Tracker. See jälgija tugineb Eukleidese vahekauguse mõõtmisele objekti keskpunkti asukoha vahel video praeguses ja eelmises kaadris.Lõputöö teine osa on näoilmetuvastus (FER). Selle jaoks koolitatakse FER2013 andmekogu kaudu konvolutsioonilist närvivõrku (CNN). Mudelile sisestatakse eelmisest etapist võetud näopiltide komplekt, see klassifitseerib edukalt seitse erinevat emotsionaalset olekut. Kolmas osa salvestab emotsioonide andmed iga inimese kohta viisil, mis oleks inimestele kergesti arusaadav. Esitatud teave sisaldab osalevate inimeste arvu, nende näoilmeid ja üldist meeleolu publikus. Selle teabe abil saab kasutaja tagasisidet oma kõne kohta. See tagasiside võib aidata edaspidiseks esinemisoskust parendada või isegi esitusstiili kohe muuta, et suurendada publiku huvi.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Smart Traffic Control Using Optimised Convolutional Neural Network(Tartu Ülikool, 2019) Surrage Reis, Mateus; Anbarjafari, GholamrezaIn English: The state-of-the-art in image object detection is in convolutional neural networks, which is a computationally expensive base to build on. To run accurate detection in an embedded device, additional optimization is required if there is a need to run it real-time on each frame of a video. This thesis details work done in the development of a smart pedestrian crosswalk: an Internet of Things enabled embedded platform for traffic control. By fine-tuning an individual neural network for each SPC post, it was possible to significantly boost accuracy in a fast, low-accuracy CNN. This was accomplished by taking advantage of the low variation in possible input images, being drawn from only 3 cameras per post. The improvement was from 33.1% mAP in general context images and 80 classes to 60.7% mAP on solely traffic images and seven traffic-relevant classes. Eesti keeles: Uusimad objekti tuvastus meetodid kasutavad oma töös konvuleerivaid närvivõrke, mis arvutuslikust küljest on ressursiahned. Täpsete tuvastusmudelite jooksutamine manussüsteemides vajab palju optimeerimist, eriti kui seade peab toimima reaalajas. Käesolev töö kirjeldab targa ülekäiguraja teemärgi loomist: nutiseade, mis on mõeldud liikluse juhtimiseks. Seadistades iga SPC posti eraldi närvivõrku, oli võimalik märkimisväärselt tõsta kiire ja ebatäpse närvivõrgu selgust. See saavutati kasutades ära kolmest kaamerast tulevate sisendpiltide minimaalset varieeruvust. Algoritmi täpsust parandati 80 klassilise üldnärvivõrgu 33.1% mAP pealt 60.7% mAP peale, rakendades ainult liiklusega seotud pilte koos seitsme erineva teemakohase klassiga.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Super Resolution and Face Recognition Based People Activity Monitoring Enhancement Using Surveillance Camera(Tartu Ülikool, 2016) Uiboupin, Tõnis; Anbarjafari, Gholamreza; Rasti, Pejman; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutDue to importance of security in the society, monitoring activities and recognizing specific people through surveillance video camera is playing an important role. One of the main issues in such activity rises from the fact that cameras do not meet the resolution requirement for many face recognition algorithms. In order to solve this issue, in this work we are proposing a new system which super resolve the image. First, we are using sparse representation with the specific dictionary involving many natural and facial images to super resolve images. As a second method, we are using deep learning convulutional network. Image super resolution is followed by Hidden Markov Model and Singular Value Decomposition based face recognition. The proposed system has been tested on many well-known face databases such as FERET, HeadPose, and Essex University databases as well as our recently introduced iCV Face Recognition database (iCV-F). The experimental results shows that the recognition rate is increasing considerably after applying the super resolution by using facial and natural image dictionary. In addition, we are also proposing a system for analysing people movement on surveillance video. People including faces are detected by using Histogram of Oriented Gradient features and Viola-jones algorithm. Multi-target tracking system with discrete-continuouos energy minimization tracking system is then used to track people. The tracking data is then in turn used to get information about visited and passed locations and face recognition results for tracked people.listelement.badge.dso-type Kirje , listelement.badge.access-status Avatud juurdepääs , Video Face Swapping(2020) Wilson Soto, Barbara; Anbarjafari, Gholamreza; Karabulut, DoğuşFace swapping is the challenge of replacing one or multiple faces in a target image with a face from a source image, the source image conditions need to be transformed in order to match the conditions in the target image (lighting and pose). A code for Image Face Swapping (IFS) was refactored and used to perform face swapping in videos. The basic logic behind Video Face Swapping (VFS) is the same as the one used for IFS since a video is just a sequence of images (frames) stitched together to imitate movement. In order to achieve VFS, the face(s) in an input image are detected, their facial landmarks key points are calculated and assigned to their corresponding (X,Y) coordinates, subsequently the faces are aligned using a procrustes analysis, next a mask is created for each image in order to determine what parts of the source and target image need to be shown in the output, then the source image shape has to warp onto the shape of the target image and for the output to look as natural as possible, color correction is performed. Finally, the two masks are blended to generate a new image output showing the face swap. The results were analysed and obstacles of the VFS code were identified and optimization of the code was conducted. In estonian: Näovahetusena mõistetakse käesolevalt lähtekujutiselt saadud ühe või mitme näo asendamist sihtpildil. Lähtekujutise tingimusi peab transformeerima, et nad ühtiksid sihtpildiga (valgus, asend). Pildi näovahetus (IFS, Image Face Swapping) koodi refaktoreeriti ja kasutati video näovahetuseks. Video näovahetuse (Video Face Swapping, VFS) põhiline loogika on sama kui IFSi puhul, kuna video on olemuselt ühendatud kujutiste järjestus, mis imiteerib liikumist. VFSi saavutamiseks tuvastatakse nägu (näod) sisendkujutisel, arvutatakse näotuvastusalgoritmi abil näojoonte koordinaadid, pärast mida joondatakse näod Procrustese meetodiga. Järgnevalt luuakse igale kujutisele image-mask, määratlemaks, milliseid lähte- ja sihtkujutise osi on vaja näidata väljundina; seejärel ühitatakse lähte- ja sihtkujutise kujud ja võimalikult loomuliku tulemuse jaoks viiakse läbi värvikorrektsioon. Lõpuks hajutatakse kaks maski uueks väljundkujutiseks, millel on näha näovahetuse tulemus. Tulemusi analüüsiti ja tuvastati VFS koodi takistused ning seejärel optimeeriti koodi.