Sirvi Autor "Jakovits, Pelle" järgi
Nüüd näidatakse 1 - 16 16
- Tulemused lehekülje kohta
- Sorteerimisvalikud
Kirje Adapting scientific computing algorithms to distributed computing frameworks(2017-02-09) Jakovits, Pelle; Srirama, Satish Narayana, juhendaja; Tartu Ülikool. Loodus- ja täppisteaduste valdkond.Teadusarvutuses kasutatakse arvuteid ja algoritme selleks, et lahendada probleeme erinevates reaalteadustes nagu geneetika, bioloogia ja keemia. Tihti on eesmärgiks selliste loodusnähtuste modelleerimine ja simuleerimine, mida päris keskkonnas oleks väga raske uurida. Näiteks on võimalik luua päikesetormi või meteoriiditabamuse mudel ning arvutisimulatsioonide abil hinnata katastroofi mõju keskkonnale. Mida keerulisemad ja täpsemad on sellised simulatsioonid, seda rohkem arvutusvõimsust on vaja. Tihti kasutatakse selleks suurt hulka arvuteid, mis kõik samaaegselt töötavad ühe probleemi kallal. Selliseid arvutusi nimetatakse paralleel- või hajusarvutusteks. Hajusarvutuse programmide loomine on aga keeruline ning nõuab palju rohkem aega ja ressursse, kuna vaja on sünkroniseerida erinevates arvutites samaaegselt tehtavat tööd. On loodud mitmeid tarkvararaamistikke, mis lihtsustavad seda tööd automatiseerides osa hajusprogrammeerimisest. Selle teadustöö eesmärk oli uurida selliste hajusarvutusraamistike sobivust keerulisemate teadusarvutuse algoritmide jaoks. Tulemused näitasid, et olemasolevad raamistikud on üksteisest väga erinevad ning neist ükski ei ole sobiv kõigi erinevat tüüpi algoritmide jaoks. Mõni raamistik on sobiv ainult lihtsamate algoritmide jaoks; mõni ei sobi olukorras, kus andmed ei mahu arvutite mällu. Algoritmi jaoks kõige sobivama hajusarvutisraamistiku valimine võib olla väga keeruline ülesanne, kuna see nõuab olemasolevate raamistike uurimist ja rakendamist. Sellele probleemile lahendust otsides otsustati luua dünaamiline algoritmide modelleerimise rakendus (DAMR), mis oskab simuleerida algoritmi implementatsioone erinevates hajusarvutusraamistikes. DAMR aitab hinnata milline hajusraamistik on kõige sobivam ette antud algoritmi jaoks, ilma algoritmi reaalselt ühegi hajusraamistiku peale implementeerimata. Selle uurimustöö peamine panus on hajusarvutusraamistike kasutuselevõtu lihtsamaks tegemine teadlastele, kes ei ole varem nende kasutamisega kokku puutunud. See peaks märkimisväärselt aega ja ressursse kokku hoidma, kuna ei pea ükshaaval kõiki olemasolevaid hajusraamistikke tundma õppima ja rakendama.Kirje Andmete reaalajas kogumise võrdlemine kasutades Apache NiFit ja Pythonit(Tartu Ülikool, 2020) Kurvits, Kristofer; Jakovits, Pelle; Tartu Ülikool. Loodus- ja täppisteaduste valdkond; Tartu Ülikool. TehnoloogiainstituutViimastel aastatel populaarsust kogunud DevOps i kultuur on jõudnud andmeteaduse valdkonda, mida kutsutakse DataOps iks. Selle tõttu on hakatud ehitama andmetorusi, et kontrollida andmete kogu elutsükklit. Kui andmete maht on kasvanud väga suureks, siis DataOps i eesmärk on parandada suhtlust, koostööd, automatiseerimist ja integratsiooni erinevate tiimide vahel, näiteks andmeteadlaste ja andmeanalüütikute. Selle tõttu on hakatud ehitama andmetorusi, et kontrollida andmete kogu elutsükklit. Käesoleva bakalaureusetöö eesmärk on ehitada andmetoru kasutades tarkvara Apache NiFi ning võrrelda seda tavapärase skriptilise lähenemisega kasutades programmeerimiskeelt Python. Andmetoru on loodud temperatuuri mõõtvate seadmete, mis töötavad Raspberry Pi 3 arvutitel ning Tartu Ülikooli pilves olevate masinate vahele. In english: In the last years DevOps culture has gained popularity and has applied on the field of data science, which is called DataOps. It is because of that the creation of data pipelines has begun to have control over data lifecycle. When the volume of data has become huge, DataOps aims to improve communication, cooperation, automation and integration between different teams for example data scientists and data analysts. The purpose of the thesis is to build a data pipeline with a software intended for that purpose, Apache NiFi and to compare it to scripting approach using programming language Python. The data pipeline is created between temperature measuring devices which are working on Raspberry Pi 3 computers and University of Tartu’s cloud environment instances.Kirje BSPlib Java liides paralleelsete teadusarvutuse rakendustele(Tartu Ülikool, 2012) Kromonov, Ilja; Jakovits, Pelle; ; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutSelle lõputöö eesmärk on BSPlib liidese loomine Java programmeerimiskeele jaoks, mis võimaldaks luua Bulk Synchronous Parallel (BSP) hajusarvutuse mudelil baseeruvaid Java programme. Loodavat liidest kasutatakse keerulise teadusarvutuse programmi paralleliseerimiseks, et illustreerida BSP kasutatavust teadusarvutuslike probleemide lahendamise jaoks. Selleks programmiks on valitud tahkete materjalide soojusjuhtivuse simuleerimine lineaarsüsteemide lahedamise teel, mis on äärmiselt kommnikatsiooni-nõudlik ning sobib seega väga heaks näiteks. Lisaks BSP mudelile kasutatakse selle programmi paralleliseerimiseks ka kahte erinevat MPI hajusarvutuse liidest, millega võrreldes hinnatakse loodud BSP liidese effektiivsust ning skaleeruvust.Kirje Müra eemaldamine SAR piltidelt kasutades NL-means algoritmi MapReduce mudelil(2014) Võssotski, Jevgeni; Jakovits, PelleMaapinna skaneerimise ja uurimisega tegutsevate satelliitide süsteemide üheks suureks probleemiks on müra, mis esineb elektromagnetiliselt (i.e. radarite poolt) saadud piltidel. Selle probleemi lahenduse üheks suunaks on müra vähendamise filtrid, mida rakendatakse töötlemata andmetele. On tõestatud, et filtreerimisalgoritm Non-Local Means annab väga head filtreerimistulemused. Seevastu aga on teada, et see algoritm nõuab suurt arvutusvõimsust. Käesolevas töös sellelle probleemile lähendatakse paralleelarvutuse metoodikaga hajusarvutuse raamistiku Apache Hadoop abil. On näidatud, et müra vähenemise meetodit Non-Local Means saab edukalt adapteerida käivitamiseks MapReduce hajumudelina. Meetodi skaleerimise hindamiseks on läbiviidud eksperimendid testpiltidega. Need katsed kinnitavad meetodi kõrget efektiivsust (16 protsessoritega klastri puhul on saavutatud 13.14x kiirendus) ja näitavad platvormi Hadoop positiivset potentsiaali piltide massiliseks töötlemiseks.Kirje Pilvetehnoloogial põhinev andmetöötlus ja serveri skaleeritavus SportID rakendusele(2014) Torm, Rein; Srirama, Satish Narayana; Jakovits, PelleSee lõputöö uurib kahte probleemi, mis puudutavad SportID veebirakendust. Esimene probleem on seotud serveri arhitektuuriga. Autor uurib, kas praegune serveri arhitektuur on sobiv ka suurema koormuse puhul. Teiseks probleemiks on SportID vajadustega sobiva odava andmeanalüüsi süsteemi puudumine. Autor loob lihtsa andmeanalüüsi platvormi kasutades selleks erinevad pilvetehnoloogia andmetöötlussüsteeme ja võrdleb loodud süsteemi tavalise relatsioonilise andmebaasi analüüsimisega.Kirje Platvormist sõltumatu mobiilirakendus lõunatajatele(2016) Gorohhov, Janer; Jakovits, PelleKäesoleva bakalaureusetöö eesmärgiks on luua platvormist sõltumatu mobiilirakendus lõunatajatele. Töös kirjeldatakse ära uute tutvuste leidmise probleem ning selgitatakse lahendusena arendatud mobiilirakendust. Bakalaureusetöös võrreldakse olemasolevaid lahendusi ning kirjeldatatakse nende puudusi. Lahendus arendatakse valmis prototüübina, kus nõuded on seatud võimalikult realistlikult vastavalt lõppkasutaja ootustele. Antud töös kirjeldatatakse rakenduse käitumismudelid ning esitatakse näited piltidena.Kirje Raamistiku Apache Pig kasutamine suuremahulises andmeanalüüsis(Tartu Ülikool, 2011) Mehine, Jürmo; Srirama, Satish Narayana; Jakovits, Pelle; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutKäesolev magistritöö kirjeldab andmete paralleeltöötluseks mõeldud tarkvararaamistiku Apache Pig kasutamist. Esitatud on konkreetne andmeanalüüsi ülesanne, mille lahendamiseks raamistikku kasutati. Selle töö eesmärk on näidata Pig-i kasulikkust suuremahuliseks andmeanalüüsiks. Raamistik Pig on loodud töötama koos paralleelarvutuste tegemise infrastruktuuriga Hadoop. Hadoop realiseerib MapReduce programmeerimismudelit. Pig käitub lisa-abstraktsioonitasemena MapReduce-i kohal, esitades andmeid relatsiooniliste tabelitena ning lubades programmeerijatel teha päringuid, kasutades Pig Latin päringukeelt. Pig-i testimiseks püstitati andmeanalüüsi ülesanne, mis oli vaja lahendada. Üheks osaks ülesandest oli RSS veebivoogudest kogutud uudistest päevade kaupa levinumate sõnade tuvastamine. Teine osa oli, suvalise sõnade hulga puhul, kogutud uudistest leidmine, kuidas muutus päevade kaupa selle sõnade hulga koosesinemiste arv uudistes. Lisaks tuli Pig-i kasutades realiseerida regulaaravaldisi rakendav teksti otsing kogutud uudiste seast. Probleemi lahendusena realiseeriti hulk Pig Latin keelseid skripte, mis töötlevad ja analüüsivad kogutud andmeid. Funktsionaalsuse kokku sidumiseks loodi programmeerimiskeeles Java raamprogramm, mis käivitab erinevaid Pig skripte vastavalt kasutaja sisendile. Andmete kogumiseks loodi eraldi rakendus, mida kasutati regulaarsete intervallide järel uudisvoogude failide alla laadimiseks. Loodud rakendust kasutati kogutud andmete analüüsiks ja töös on esitatud ka mõned analüüsi tulemused. Tulemustest võib näha, kuidas teatud sõnade ja sõnakombinatsioonide esinemissagedused muutuvad seoses sellega, kuidas sündmuste, mida need sõnad kirjeldavad, aktuaalsus suureneb ja väheneb.Kirje Spark raamistiku sobivus andmete klassifitseerimiseks(2014) Laada, Sergei; Jakovits, PelleSelle lõputöö eesmärk on näidata Spark raamistiku sobivust erinevate klassifitseerimis algoritmite rakendamisel ja näidata kuidas täpselt algoritmid MapReduce-ist Spark-i üle viia. Eesmärgi täitmiseks said implementeertud kolm algoritmi: paralleelne k-nearest neighbor’s algoritm, paralleelne naïve Bayesian algoritm ja Clara algoritm. Et näidata erinevaid lähenemisviise otsustati rakendada need algoritmid kasutades kahte raamistiku: Hadoop ja Spark. Et tulemusi kätte saada, jooksutati mõlema raamistiku puhul testid samade sisend-andmete ja parameetritega. Testid käivitati erinevate parameetritega et näidata realiseerimise korrektsust. Tulemustele vastavad graafikud ja tabelid genereeriti et näidata kui hästi on algoritmide käivitamisel töö hajutatud paralleelsete protsesside vahel. Tulemused näitavad et Spark saab hakkama lihtsamate algoritmidega, nagu näiteks k-nearest neighbor’s, edukalt aga vahe Hadoop tulemustega ei ole väga suur. Naïve Bayesian algoritm osutus lihtsate algoritmide erijuhtumiks. Selle tulemused näitavad et väga kiire algoritmide korral kulutab Spark raamistik rohkem aega andmete jaotamiseks ning konfigureerimiseks kui andmete töötlemiseks. Clara algoritmi tulemused näitavad et Spark raamistik saab suurema keerukusega algoritmidega hakkama märgatavalt paremini kui Hadoop.Kirje SQL-il tuginevate skriptimiskeelte kasutamine andmeanalüütikaks Hadoopi ökosüsteemis(2016) Koppel, Madis-Karli; Jakovits, PelleSelle lõputöö eesmärk on andmeanalüütika algoritmide rakendamine,\n\ret võrrelda erinevaid SQL-il põhinevaid skriptimiskeeli Hadoopi ökosüsteemis.\n\rLõputöö võrdleb erinevate raamistike efektiivsust ja algoritmide implementeerimise\n\rlihtsust kasutajal, kellel pole varasemat hajusarvutuse kogemust. Eesmärgi\n\rtäitmiseks implementeeriti kolm algoritmi: Pearsoni korrelatsioon, lihtne lineaarne\n\rregressioon ja naiivne Bayesi klassifikaator. Algoritmid implementeerti kahes\n\rSQL-il põhinevas raamistikus: Spark SQL-s ja HiveQL-s, samuti implementeeriti\n\rsamade algoritmide Spark MLlibi versioon. Algoritme testiti klastris erinevate sisendfaili\n\rsuurustega, samuti muudeti kasutatavate tuumade arvu. Selles lõputöös\n\ruuriti ka Spark SQLi ja Spark MLlibi algoritmide skaleeruvust. Algoritmide jooksutamise\n\rtulemusel selgus, et Pearsoni korrelatsioon oli HiveQL’is veidi kiirem kui\n\rteistes uuritud raamistikes. Lineaarse regressiooni tulemused näitavad, et Spark\n\rSQL ja Spark MLlib olid selle algoritmiga sama kiired, HiveQL oli umbes 30%\n\raeglasem. Kahe esimese algoritmiga skaleerusid Spark SQL ja Spark MLlibist pärit\n\ralgoritm hästi. Naiivse Bayesi klasifikaatoriga tehtud testid näitasid, et Spark\n\rSQL on selle algoritmiga kiirem kui HiveQL, hoolimata sellest, et ta ei skallerunud\n\rhästi. Spark MLlibi tulemused selle algoritmiga ei olnud piisavad järelduste\n\rtegemiseks. Korrelatsiooni ja lineaarse regressiooni implementatsioonid HiveContextis\n\rja SQLContextis andsid sama tulemuse. Selle lõputöö käigus leiti, et SQL-il\n\rpõhinevaid raamistikke on kerge kasutada: HiveQL oli kõige lihtsam samas kui\n\rSpark SQL nõudis veidi hajusarvutuse tundma õppimist. Spark MLlibi algoritmide\n\rimplementeerimine oli raskem kui oodatud, kuna nõudis algoritmi sisemise töö\n\rmõistmist, samuti osutusid vajalikuks teadmised hajusarvutusest.Kirje Suuremahuline pilditöötlus MapReduce baasil(Tartu Ülikool, 2013) Potisepp, Karl; Jakovits, Pelle; Srirama, Satish Narayana; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutJälgides tänapäeva tehnoloogia arengut ning odavate fotokaamerate üha laialdasemat levikut, on üha selgem, et ühe osa üha kasvavast inimeste tekitatud andmete hulgast moodustavad pildid. Teades, et tõenäoliselt tuleb neid andmeid ka töödelda, ning et üksikute arvutite võimsus ei luba kohati juba praegu neid mahukamate ülesannete jaoks kasutada, on inimesed hakanud uurima mitmete hajusarvutuse mudelite pakutavaid võimalusi. Üks selline on MapReduce, mille põhiliseks aluseks on arvutuste üldisele kujule viimine, seades programmeerija ülesandeks defineerida vaid selle, mis toimub andmetega nelja arvutuse faasi - Input, Map, Reduce, Output - jooksul. Kuna sellest mudelist on olemas kvaliteetseid vabavara realisatsioone, ning mahukamateks arvutusteks on kerge vaeva ja vähese kuluga võimalik rentida vajalik infrastruktuur, siis on selline lähenemine pilditöötlusele muutunud peaaegu igaühele kättesaadavaks. Antud magistritöö eesmärgiks on uurida MapReduce mudeli kasutatavust suuremahulise pilditöötluse vallas. Selleks vaatlen eraldi juhte, kus tegemist on tavalistest piltidest koosneva suure andmestikuga, ning kus tuleb töödelda ühte suuremahulist pilti. Samuti jagan nelja klassi vahel kõik pilditöötlusalgoritmid, nimetades need vastavalt lokaalseteks, iteratiivseteks lokaalseteks, mittelokaalseteks ja iteratiivseteks mittelokaalseteks algoritmideks. Kasutades neid jaotusi, kirjeldan üldiselt põhilisi probleeme ja takistusi, mis võivad segada mingit tüüpi algoritmide hajusat rakendamist mingit tüüpi piltandmetel, ning pakun välja võimalikke lahendusi. Töö praktilises osas kirjeldan MapReduce mudeli kasutamist Apache Hadoop raamistikuga kahel erineval andmestikul, millest esimene on 265GiB-suurune pildikogu, ning teine 6.99 gigapiksli suurune mikroskoobifoto. Esimese näite puhul on ülesandeks pildikogust meta-andmete eraldamine, kasutades selleks objekti- ning tekstituvastust. Teise andmestiku puhul on ülesandeks töödelda pilti ühe kindla mitteiteratiivse lokaalse algoritmiga. Kuigi mõlemal juhul on tegemist vaid katsetamise eesmärgil loodud rakendustega, on mõlemal puhul näha, et olemasolevate pilditöötluse algoritmide MapReduce programmideks teisendamine on küllaltki lihtne, ning ei too endaga kaasa suuri kadusid jõudluses. Kokkuvõtteks väidan, et tavapärases mõõdus piltidest koosnevate andmestike puhul on MapReduce mudel lihtne viis arvutusi hajusale kujule viies kiirendada, kuid suuremahuliste piltide puhul kehtib see enamasti ainult mitteiteratiivsete lokaalsete algoritmidega.Kirje Teadusarvutusteks mõeldud väikese jõudlusega pilvede loomine OpenStacki näitel(Tartu Ülikool, 2013) Kadakas, Valdur; Srirama, Satish Narayana; Jakovits, Pelle; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutAntud töö uurib, kuidas OpenStacki pilveplatvormi kasutada väikese jõudlusega pilvedes teadusarvutuse ja õppetöö eesmärgil. OpenStacki on küllaltki keeruline seadistada ning enamus dokumentatsioonist on paraku suunatud suurte sadade serveritega pilvede loomisele. OpenStacki paljude komponentide erinevaid võimalusi on küllaltki raske hoomata. Antud tö ö püüab need valikud Tartu Ülikooli Mobiilipilve aborile kuuluva kahe serveriga pilve näitel lahti rääkida.Kirje Teaduslikus arvutusprotsessis riistvara virtualiseerimise hind(Tartu Ülikool, 2013) Trukits, Allan; Jakovits, Pelle; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutSelle töö eesmärk on uurida riistvara virtualiseerimise negatiivseid aspekte, kui paigaldatakse rakendusi pilve, mõõtes selle mõju täpselt teaduslike paralleelarvutus algoritmidega. Virtualiseerimine annab pilveteenustele mitmeid eeliseid nagu seadistamise lihtsus, riistvara ja tarkvara lahtisidestus, väga kiire paigaldus ja konfiguratsiooni muutus ning elastsus. Kuid lisa virtualisatsioonikiht võib endaga kaasa tuua mitmeid puuduseid. Eriti ressursi nõudlikele teaduslikele algoritmidele, mis rakendavad paralleelarvutus tehnoloogiaid. Selleks kasutame NASA välja töötatud spetsiaalset tarkvara paralleelsete süsteemide jõudlustestimiseks – „NAS Parallel Benchmarking“, mis töötab MPI tehnoloogial. Virtualiseerimiseks kasutada XEN ja KVM vabavaralist virtualiseerimistarkvara ning operatsioonisüsteemiks kasutada samuti vabavaralist „Ubuntu Linuxit“. Laiame, et lihtsalt virtualisatsioonikihti lisades ei ole arvutusvõimsusele erilist mõju, küll aga olenevalt arvutite arvust, võib virtualiseerimine oluliselt mõjutada kõvaketta operatsioonide kiirust ja samuti on tuntav mõju võrgulatentsusele. Kokkuvõttes töötab KVM peaaegu kõikides jõudlustestides paremini kui Xen.Kirje Tõhusad paralleel-algoritmid radarsatelliidipiltide töötluseks kasutades suuremahulisi hajusraamistikke(2015) Hint, Oskar; Jakovits, PelleRadarsatelliidipiltide töötlemine on märkimisväärse suurusega arvutusülesanne kuna piltide mõõtmed on äärmiselt suured. Hajusarvutust kasutatakse sageli et võimendada algoritme, mis jooksevad ühel arvutil liiga aeglaselt. Kuid on ebaselge, milliseid radaripiltide töötlusalgoritme on võimalik tõhusalt paralleelsetesse keskkondadesse ümber viia ning kuidas neid korrektselt implementeerida. Eelnevad tööd on keskendunud paralleelsele pilditöötlusele kui üldisele arvutusülesandele, kuid unikaalseid radarpiltide omadusi või uuemaid hajusarvutusraamistikke pole käsitletud või on käsitlus keskendunud mõnele üksikule algoritmile. Käesolev töö pakub välja potentsiaalselt paralleliseeritavate radaripiltide töötlusalgoritmide klassifikatsiooni. Iga algoritmide klassi uuritakse enimkasutatavate hajusraamistike ja -failisüsteemide omadustel. Kõige paremini mingeid klasse esindavad algoritmid implementeeritakse konkreetsetel tehnoloogiatel. Klassifikatsioon lihtsustab huvipakkuvate algoritmide võrdlust ja pakub üldisi implementatsioonisamme ning hõlbustab seeläbi hajusarvutuse rakendamist radarsatelliidipiltide töötlusel.Kirje Tõrketaluv Hajusarvutuste Raamistik Teadusarvutuse Algoritmidele(2014) Kromonov, Ilja; Jakovits, Pelle; Srirama, Satish NarayanaArvuti riistvara füüsilised piirangud on lõpetanud protsessorite tuumade arvutusvõimsuse suurenemist, kuid arvutiarhitektuuride suurenev parallelsus säilitab Moore'i seaduse kehtivust. Samal ajal tõuseb arvutusvõimsuse nõudlus pidevalt, sundides inimesi kohandada algoritme paralleelsete arhitektuuride kasutamiseks. Üks paljudest paralleelsete arhitektuuride probleemidest on tõrkete tekkimise tõenäosuse suurenemine parallelsete komponentide arvu suurenemisega. Piinlikult paralleelsete ja andmemahukate algoritmidega seoses on MapReduce läbinud pika tee, et tagada kasutajatele suure hulga hajutatud arvutiressursside lihtsustatud kasutamine ilma töö kaotamise hirmuta. Sama ei sa öelda kommunikatsiooni intensiivsete algoritmide jaoks mis on levinud teadusarvutuse domeenis. Selles töös on pakutud uus BSP ({\it Bulk Synchronous Parallel}) inspireeritud parallelprogrammeerimise mudel, mille lähenemisviis on sarnane {\it continuation passing} programmeerimis stiiliga ja mis võimaldab rakendada BSP struktuuril baseeruvat loomulikku tõrkekindlust. Töös on kirjeldatud loodud hajusarvutuste raamistik NEWT, mis põhineb pakutud mudelil ja on kasutatud selle lähenemisviisi valideerimiseks. Raamistik säilitab enamik MapReduce eelisi ning efektiivsemalt toetab suuremat algoritmide hulka, nagu näiteks eelmainitud iteratiivsed algoritmid.Kirje Veebirakendus müügitegevusega seotud arvete loomiseks väikefirmale(2014) Allik, Karl; Jakovits, PelleAntud dokumendis kirjeldatakse ära väikefirmade PDF dokumentide loomise probleem ning lahendus. Võrreldakse ka sarnaseid lahendusi ja tuuakse välja nende puudused. Välja tuuakse kasutatavate tehnoloogiate kirjeldused ja nende võimalused. Lahendus teostatakse reaalse veebirakenduse näol, mille nõudmised ja eesmärgid on paika pandud tulevase kliendi poolt. Rakenduse poolt võimaldatavad tegevused kirjeldatakse kasutajalugudena ning selle kuvadest tuuakse välja mõned näited piltidena. Valminud rakendusega viiakse läbi koormustestid ning nende põhjal saab teha järeldused jõudlusele: kui palju arvutusressurssi on vaja ja kunas peaks kasutama automaatset skaleerumist.Kirje Veebirakendus, mis aitab transpordi- ja logistikaettevõtetel sõite planeerida(Tartu Ülikool, 2013) Lippmaa, Kaspar; Jakovits, Pelle; Tartu Ülikool. Matemaatika-informaatikateaduskond; Tartu Ülikool. Arvutiteaduse instituutLoodi veebirakendus mis aitab väikestel ja keskmise suurusega transpordiettevõtetel sõite planeerida ja kergesti oma töödest ülevaadet saada.