English-Estonian Machine Translation: Evaluation Across Different Models and Architectures

dc.contributor.advisorAnbarjafari, Gholamreza
dc.contributor.advisorSait Arslan, Hasan
dc.contributor.authorIslam, Md Rezwanul
dc.contributor.otherTartu Ülikool. Loodus- ja täppisteaduste valdkondet
dc.contributor.otherTartu Ülikool. Tehnoloogiainstituutet
dc.date.accessioned2021-05-31T08:42:19Z
dc.date.available2021-05-31T08:42:19Z
dc.date.issued2020
dc.description.abstractThis thesis is based on three main objectives: at first, the implementation of RNMT+ archi-tecture with Relational-RNN model. This is an interaction between this architecture and the RNN model. Secondly, train three different translation models based on RNMT+, Trans-former, and sequence to sequence architectures. Previously, we have witnessed the perfor-mance comparison among RNMT+ with LSTM, Transformer, seq2seq, etc. Finally, evalu-ate the translation model based on training data. When implementing RNMT+, the core idea was to use a newer type of Recurrent Neural Network (RNN) instead of a widely used LSTM or GRU. Besides this, we evaluate the RNMT+ model with other models based on state-of-the-art Transformer and Sequence to Sequence with attention architectures. This evaluation (BLEU) shows that neural machine translation is domain-dependent, and translation based on the Transformer model performs better than the other two in OpenSubtitle v2018 domain while RNMT+ model performs better compared to other two in a cross-domain evaluation. Additionally, we compare all the above-mentioned architectures based on their correspond-ing encoder-decoder layers, attention mechanism and other available neural machine translation and statistical machine translation architectures. In estonian: See lõputöö põhineb kolmel põhieesmärgil: alguses RNMT + arhitektuuri rakendamine Relatsioon-RNN-mudeli abil. See on interaktsioon selle arhitektuuri ja RNN-mudeli vahel. Teiseks, koolitage kolme erinevat tõlkemudelit, mis põhinevad RNMT +, Trafo ja järjestusearhitektuuridel. Varem oleme olnud tunnistajaks RNMT + jõudluse võrdlusele LSTM, Transformeri, seq2seq jne abil. Lõpuks hinnake tõlkemudelit koolitusandmete põhjal. RNMT + rakendamisel oli peamine idee kasutada laialdaselt kasutatava LSTM või GRU asemel uuemat tüüpi korduvat närvivõrku (RNN). Lisaks hindame RNMT + mudelit koos teiste mudelitega, mis põhinevad tipptehnoloogial Transformer ja Sequence to Sequence koos tähelepanu arhitektuuridega. See hinnang (BLEU) näitab, et neuraalne masintõlge on domeenist sõltuv ja muunduril Transformer põhinev tõlge toimib paremini kui ülejäänud kaks OpenSubtitle v2018 domeenis, samal ajal kui RNMT + mudel toimib paremini kui ülejäänud kaks domeenidevahelist hindamist. Lisaks võrdleme kõiki ülalnimetatud arhitektuure nende vastavate kodeerija-dekoodri kihtide, tähelepanu mehhanismi ja muude saadaolevate närvi masintõlke ning statistiliste masintõlke arhitektuuride põhjal.en
dc.identifier.urihttp://hdl.handle.net/10062/72121
dc.language.isoenget
dc.publisherTartu Ülikoolet
dc.rightsopenAccesset
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectNeural Machine Translationen
dc.subjectNatural Language Processingen
dc.subjectLSTMen
dc.subjectRelational-RNNen
dc.subjectRNMT+en
dc.subjectTransformeren
dc.subjectSequence-to-Sequenceen
dc.subjectPy-Torchen
dc.subjectEncoder-Decoderen
dc.subjectAttentionen
dc.subjectEvaluationen
dc.subjectNeuraalne masintõlgeet
dc.subjectloomuliku keele töötlemineet
dc.subjectrelatsiooniline-RNNet
dc.subjecttrafoet
dc.subjectjada-järjestuset
dc.subjectPy-taskulampet
dc.subjectkooder-dekooderet
dc.subjecttähelepanuet
dc.subjecthindamineet
dc.subject.othermagistritöödet
dc.titleEnglish-Estonian Machine Translation: Evaluation Across Different Models and Architecturesen
dc.title.alternativeInglise-eesti masintõlge: hindamine erinevate mudelite ja arhitektuuriet
dc.typeinfo:eu-repo/semantics/masterThesiset

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Rezwanul_Islam_MSc2020.pdf
Size:
1.03 MB
Format:
Adobe Portable Document Format
Description:
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.67 KB
Format:
Item-specific license agreed upon to submission
Description: