# Matemaattis-luonnontieteellinen tiedekunta

## Recent Submissions

• (2016)
Niin kutsutun globaalimuutoksen seurauksena lämpötilat ja sademäärät Suomessa tulevat kasvamaan seuraavien vuosikymmenien aikana. Muuttuvan ilmaston yksi seuraus on myös kasvava eroosio, jonka uhat ja haitat on laajasti huomioitu. Etenkin talvikuukausien ilmaston oletetaan Suomessa muuttuvan kaikkein radikaaleimmin. Tässä tutkielmassa pyrittiin ennen kaikkea etsimään vastauksia siihen, kuinka paljon eroosio kasvaa globaalimuutoksen seurauksena eteläsuomalaisella valuma-alueella, mitkä tekijät vaikuttavat eroosion määrään lisäävästi tai hillitsevästi, sekä kuinka hyvin suosittu SWAT-malli toimii Suomen olosuhteissa. Fysikaalisen SWAT-mallin kalibroimiseen ja validoimiseen käytettiin kahta virtaaman mittausasemaa tutkimusalueen sisäpuolelta (Härkälänjoki ja Lepsämänjoen alaosa). Malli kalibroitiin 16 virtaamaa ja valuntaa kontrolloivalla parametrilla, ja sen toimivuuden mittareiksi valittiin R2 ja NS sekä P ja R-indeksit. Härkälänjoen R2 ja NS-lukemat kalibraation ja validaation osalta olivat 0,29 ja -0,05 sekä 0,30 ja -0,57. Lepsämänjoen arvot olivat 0,40 ja 0,34 kalibraatiossa sekä 0,54 ja 0,21 validaatiossa. Vastaavat P- ja R-indeksit olivat 0,33 ja 0,24 sekä 0,32 ja 0,29 kalibraatiossa, 0,42 ja 0,57 sekä 0,50 ja 0,63 validaatiossa. Lepsämänjoen alaosan osalta lukemat ovat vähintäänkin tyydyttäviä, Härkälänjoen arvot jäivät alle hyväksyttävän tason. RCP8.5-ennusteessa eroosio tulee kasvamaan n. 94 prosenttia verrattuna validaatiojaksoon, mutta alueellista vaihtelua on paljon eikä kasvu ole yksiselitteistä. Keskimääräinen vuotuinen eroosio oli 1,22 tonnia hehtaarilla. Suurinta eroosio on talvikuukausina, erityisesti vuoden kahtena ensimmäisenä kuukautena. Eroosio oli pienintä vesistöalueen reunoilla ja havumetsävaltaisilla alueilla. Suurin kasvu tapahtui alajuoksua lähellä olevilla valuma-alueilla. SWAT-malli on kaksijakoinen mallinnusohjelma. Toisaalta sen suosio on kasvanut viime vuosina, ja se mahdollistaa erittäin tarkan aineistojen syöttämisen ja mallintamisen. Toisaalta malli vaikuttaa edelleen keskeneräiseltä, vaativan useita tukiohjelmistoja ja sisältävän ainakin ArcMap-ympäristössä useita virheitä. Säädettävien parametrien määrä on suuri, mikä vaikeuttaa oikeiden signaalien tunnistamista ja voi johtaa siihen, että eroosiota todellisuudessa säätelevät tekijät jäävät huomioimatta.
• (2016)
Vuosien 2007–2009 finanssikriisi mullisti isojen rahoituslaitosten riskipolitiikan. Henkivakuutus- ja sijoitustoimintaa harjoittavien konsernien valvontaa on tiukennettu entisestään, ja riskienhallintaan on kiinnitetty entistä paljon enemmän huomiota. Riskianalyysi on kuitenkin pitkä ja laskennallisesti raskas prosessi, johon sisältyy erilaisten riskimittojen arviointi ja mahdollisesti salkun tasapainottaminen. Value at Risk (lyh. VaR) on hyvin suoraviivainen tapa mitata sijoitussalkun kokonaisriskiä – se kertoo salkun pahimman tappion tietyllä luottamustasolla. Tappion arvioiminen voi olla kuitenkin vaikeaa, sillä sijoituspankkien ja henkivakuutusyhtiöiden valtavat salkut tietävät monimutkaisia laskelmia, jotka puolestaan vaativat suurta laskentatehoa ja vievät paljon aikaa. Tämän takia on viime aikoina yritetty tehostaa riskilaskentaan käytettäviä ohjelmia muun muassa näytönohjainten tarjoamaa massiivista rinnakkaisuutta hyödyntämällä. Tässä opinnäytetyössä tutustutaan käsitteeseen VaR sekä numeerisiin menetelmiin sen mittaamiseen, ja tutkitaan rinnakkaislaskennan NVIDIA:n CUDA-ohjelmointikehyksellä saatavia nopeutuksia. Osoitetaan, että joissakin tapauksissa suoritusaika voi pudota murto-osaan entisestään, ja tarkastellaan, kuinka tärkeä rooli tiedonsiirrolla ja muistiviittauksilla voi olla nopeutuksen kannalta. Vähentämällä tiedonsiirtoja ja tehostamalla GPU-laitteen muistinhallintaa tässä työssä saadaan 7,8x-kertainen nopeutus verrattuna tavalliseen prosessoritoteutukseen.
• (2016)
Approximate string matching considers finding a given text pattern in another text while allowing some number of differences. In the offline version of the problem, the text is known beforehand and is processed to generate an indexing data structure. While the problem has received a lot of attention and it has many practical uses in bioinformatics, the common tools often do not make use of the algorithms the time and space complexities of which are the best ones known. Hence it is interesting to compare the performance of an efficient algorithm to tools that make use of heuristics. In this work, a pattern matching algorithm by T.-W. Lam, W.-K. Sung and S.-S. Wong is described. An implementation of the algorithm is provided and tested against two other tools, namely Erne 2 and readaligner 2012. The algorithm by Lam, Sung and Wong searches the text for the pattern while allowing one mismatch or difference, that is, also allowing character insertion and deletion. It makes use of certain types of compressed suffix array and compressed suffix tree that provide fast operations. Additionally, to restrict the search to relevant parts of the suffix tree, a sample is taken from the suffix array and the sampled indices are stored into a data structure that provides double logarithmic worst case range queries. To find the pattern in the text while allowing k errors, the algorithm is combined with a dynamic programming algorithm. The latter is used to find partial matches with k - 1 errors. The candidate occurrences are located from the suffix tree and these branches are used with Lam, Sung and Wong's algorithm. For a text of length n and a pattern of length m drawn from an alphabet of size σ, the time complexity of the algorithm is O(σ^k m^k (k + log log n) + occ) using an O(n (log n)^(1/2) log σ)-bit indexing data structure, where occ is the number of occurrences in the text, given that σ is O(2^((log n)^(1/2))). For short patterns, this is the best known time complexity with an indexing data structure of the given size. The results indicate that in practice relying on heuristics yields better results in terms of time and memory use. While such an outcome is not remarkable, some important data structures were implemented in the process. An implementation of S. S. Rao's compressed suffix array already existed but it was rewritten to allow using different supporting data structures for e.g. rank and select support. The inverse suffix array described by Lam, Sung and Wong was implemented. Also, while implementations of X and Y-fast were available, to the author's knowledge a publicly available implementation of these combined with perfect hashing had not been produced before. Moreover, no implementation of Lam, Sung and Wong's algorithm was known to exist before.
• (2016)
Cloud computing is used widely and is going to be used even more in the future. Many internet-based services are now designed to be “cloud native” using architectures that allow them to take advantage of the scalability of the underlying cloud infrastructure allowing cus- tomer services to meet potentially rapid changes in customer demand. While there are many customers successfully leveraging cloud services for their bene t, the use cloud computing has also drawn critique on its other aspects such as its reliability and security. Although issues of security and operational cost bene ts have been studied and actively marketed by the major cloud infrastructure service vendors, the question of service reliability and more speci cally, availability of cloud services is less researched in academia and also less publicised by the cloud vendors themselves. This study takes a look at the service availability of cloud infrastructure services. The study focuses on the largest public cloud infrastructure provider e.g. Amazon Web Services, and uses publicly available incident information to analyse outages from multiple viewpoints. The use of publicly available information at has allowed this work to analyse a wider selection of services than earlier studies, but also does limit the scope of outages that can be analysed to relatively large-scale outages. The overall result is that Amazon Web Services’ services during the analysis period of June 5th 2013 to June 4th 2014 are reliable services with an overall availability of 99.983% over all of the services included in this study. During the analysis period there was a total of 139 separate outage events where an average outage event lasted 130 ± 20 minutes. EC2 and RDS, two of the services with known Service Level Agreement availability target, meet their contractual availability targets by a comfortable margin with both having over 99.9999% availability when measured in comparable units to the SLA’s target of 99.95% availability.
• (2016)
Waring's problem is one of the two classical problems in additive number theory, the other being Goldbach's conjecture. The aims of this thesis are to provide an elementary, purely arithmetic solution of the Waring problem, to survey its vast history and to outline a few variations to it. Additive number theory studies the patterns and properties, which arise when integers or sets of integers are added. The theory saw a new surge after 1770, just before Lagrange's celebrated proof of the four-square theorem, when a British mathematician, Lucasian professor Edward Waring made the profound statement nowadays dubbed as Waring's problem: for all integers n greater than one, there exists a finite integer s such that every positive integer is the sum of s nth powers of non-negative integers. Ever since, the problem has been taken up by many mathematicians and state of the art techniques have been developed — to the point that Waring's problem, in a general sense, can be considered almost completely solved. The first section of the thesis works as an introduction to the problem. We give a profile of Edward Waring, state the problem both in its original form and using present-day language, and take a broad look over the history of the problem. The main emphasis is on the classical version of the problem, whereas the modern version is described in Section 5 with numerous other variations. In addition, generalizations to integer-valued polynomials and to general algebraic fields are described. Goldbach's conjecture is also briefly illustrated. The elementary solution of Waring's problem is presented in Sections 2 to 4. Historical perspective is carried through the thesis with the profiles of the key mathematicians to the solution. The proof presented is an improved and simplified version of Yuri Linnik's solution of Waring's problem. The second section provides the groundwork, an ingenious density argument by Lev Shnirelman, which is applied to the problem in the so called Fundamental lemma presented in Section 3. The proofs of the intermediate results needed to prove the lemma are presented in the following sections. The third section reduces the proof to an estimation of the number of solutions of a certain system of Diophantine equations. The final argument, longish induction is given at the end of the fourth section. Even though Waring's problem is solved, the progress made in the field is far from being idle. The plethora of variations and generalizations, especially Ideal Waring's problem, Modern Waring's problem and Waring–Goldbach problem are actively studied today. It is surprising how deep a problem with such a seemingly simple assertion can be. Conclusively, the challenge in this branch of mathematics is to develop new mathematical methods to prove and explain what seems so obvious.
• (2016)
Atmospheric secondary organic aerosol formation is not completely understood, aerosol processes and chemistry are complex as well as their interactions and evolution throughout the atmosphere. In this study the potential aerosol mass chamber was used to simulate these processes. Potential aerosol mass being the maximum mass that can be produced from precursor gases being oxidised. UV lamps situated inside the chamber produce oxidants (O3, OH, HO2) at the same ratio as the atmosphere and the lamp intensity can be changed to simulate different days of photochemical aging. Laboratory characterisation measurements were undertaken by adjusting various experimental parameters (level of oxidants, relative humidity, temperature, type of precursor and its concentration). The aim of these measurements is to understand how the PAM chamber simulates atmospheric aerosol aging and photochemical processes. The PAM chamber was observed to simulate atmospheric SOA formation well. As the amount of oxidants was increased the amount of formed SOA increased initially. After a certain point, it was observed that fragmentation started to decrease the mass even though the oxidation level of SOA increased further.
• (2016)
Työssä rakennetaan yleisten Markovin ketjujen teoriaa tila-avaruudella, joka on euklidisen avaruuden $\mathbb{R}^d$ osajoukko. Määrittelemme uusiutumisprosessit ja rakennamme regeneroituvien Markovin ketjujen teorian. Näytämme, että ergodisuusoletuksen toteuttava Markovin ketju on Harris-palautuva, positiivisesti palautuva ja sen tasapainojakauma on yksikäsitteinen. Regeneroituvalla Markovin ketjulla on tila-avaruuden osajoukko, johon osuessaan sillä on mahdollisuus regeneroitua positiivisella todennäköisyydellä. Regeneraation tapahtuessa Markovin ketju unohtaa historiansa ja sitä voidaan tarkastella kuten se käynnistyisi uudestaan tietyllä regeneraatiokonstruktion määrittämällä alkujakaumalla. Harris-palautuvuus ja positiivinen palautuvuus ovat vahvoja regeneraatioajan äärellisyyttä koskevia tuloksia. Teoriaa hyväksikäyttämällä todistetaan kolme keskeistä konvergenssitulosta Markovin ketjuille: suurten lukujen laki, jakauman suppeneminen kokonaisvariaatioetäisyydessä sekä keskeinen raja-arvolause. Markovin ketjujen teoria rakennetaan siinä laajuudessa, kuin sen avulla on mahdollista ymmärtää Metropolisin ja Hastingsin algoritmin toiminta. On annettu jonkin todennäköisyysjakauman mahdollisesti normalisoimaton tiheysfunktio $\pi$ ja tehtävänä on muodostaa satunnaisotos kyseisestä jakaumasta. Metropolisin ja Hastingsin algoritmi konstruoi Markovin ketjun, jonka tasapainojakauma on $\pi$. Markovin ketjua simuloimalla saadaan siten haluttu otos. Mikäli Markovin ketju toteuttaa riittävät säännöllisyysominaisuudet, on muun muassa suurten lukujen laki ja keskeinen raja-arvolause voimassa, mikä merkitsee, että saatu otos on käytännössä hyödyllinen. Metropolisin ja Hastingsin algoritmi on esimerkki Markovin ketju Monte Carlo eli MCMC-menetelmistä. Ne mahdollistavat simuloinnin hyvin monimutkaisista jakaumista, joiden hallinta muita menetelmiä käyttäen on vaikeaa tai mahdotonta. Bayesiläinen tilastotiede ja tilastollinen mekaniikka ovat esimerkkejä MCMC-menetelmien tärkeistä sovellusaloista. Esittelemme lyhyesti MCMC-menetelmien soveltamisen perusteet ja suoritamme lyhyen katsauksen menetelmien historiaan. Lopuksi esittelemme soveltavan esimerkin, jossa Metropolisin ja Hastingsin algoritmia käytetään salakirjoitetun tekstin selventämiseen.
• (2016)
Tutkielmassa selvitetään, johtuvatko suomalaisten yöunen pituuden muutokset mediassa faktoina esitetyistä väitteistä: "ihmiset nukkuvat nykyään vähemmän kuin ennen" ja "ihmiset nukkuvat ikääntyessään vähemmän". Kummallakaan väitteellä ei ole tutkimukseen perustuvaa näyttöä, vaikkakin suomalaisten on havaittu nukkuvan keskimäärin vähemmän yössä kuin ennen. Keskimääräistä vähemmän unen voi selittää unen väheneminen ikääntyessä, jolloin Suomen vanheneva väestö nukkuisi keskimäärin vähemmän kuin ennen siksi, että Suomen väestö on keskimäärin vanhempaa kuin ennen. Yhtä lailla ihmisten yleinen yöunen määrän väheneminen ikään katsomatta voi selittää keskimääräisen yöunen pituuden vähenemisen. Todellisuus voi johtua kummasta tahansa, molemmista tai ei kummastakaan. Aineistona tutkielmassa käytetään Hjelt-instituutin keräämää kaksostutkimusaineistoa, jossa tutkimushenkilöiltä on kysytty vuosina 1975, 1981, 1990 ja 2011 useita terveyteen liittyviä kysymyksiä, muun muassa keskimääräistä yöunen pituutta. Aineisto on kerätty alun perin Suomen väestörekisteristä, ja tutkimushenkilöiden kaksosuus on selvitetty kyselylomakkeella. Yöunen pituutta mallinnetaan elinaikamalleihin kuuluvalla Weibull-regressiomallilla. Koska aineistossa on toistomittauksia samoilta henkilöiltä, käytetään kovarianssirakenteen mallintamiseen satunnaistermejä. Lisäksi aineisto koostuu yksinomaan kaksospareista, minkä aiheuttama kovarianssirakenne niin ikään mallinnetaan satunnaistermeillä. Tutkimushenkilöt ovat raportoineet unen pituutensa luvun sijaan aikavälinä, mikä huomioidaan mallintamalla havaintoja intervallisensuroituina. Tutkielmassa havaittiin sekä ikääntymisen että syntymäkohortin selittävän yöunen pituutta. Ikääntyminen 18--34-vuotiaasta 35--54-vuotiaaksi lyhentää yöunen odotuspituutta, mutta vanheneminen 35--54-vuotiaasta 55-vuotiaaksi tai vanhemmaksi ei enää lyhennä unen odotuspituutta. Vuosina 1920--1939 syntyneet ja 1940--1960 syntyneet nukkuvat vähemmän kuin vertailuryhmänä käytetyt vuosina 1880--1899 syntyneet. Sen sijaan vuosina 1900--1919 syntyneet eivät nuku tilastollisesti merkitsevästi vähemmän kuin vuosina 1880--1899 syntyneet. Tulos tukee mediassa esitettyä väitettä, mutta varsinaiset vähäisemmän unen aiheuttavat suorat syyt eivät ole selvillä, vaan tämän selvittäminen vaatii jatkotutkimuksia. Tuloksen perusteella uneen liittyvissä tutkimuksissa on syytä huomioida tutkimushenkilöiden ikä, sillä se vaikuttaa unen pituuteen.
• (2016)
Interatomic potentials are used to describe the motion of the individual atoms in atomistic simulations. An accurate treatment of the interatomic forces in a system of atoms requires heavy quantum mechanical calculations, which are not computationally feasible in large-scale simulations. Interatomic potentials are computationally more efficient analytical functions used for calculating the potential energy of a system of atoms, allowing simulations of larger systems or longer time scales than in quantum mechanical simulations. The interatomic potential functions must be fitted to known properties of the material the potential describes. Developing a potential for a specific material typically involves fitting a number of parameters included in the functional form, against a database of important material properties, such as cohesive, structural, and elastic properties of the relevant crystal structures. In the Tersoff-Albe formalism, the fitting is performed with a coordination-based approach, where structures in a wide range of coordination numbers are used in the fitting process. Including many differently coordinated structures in the fitting database is important to get good transferability to structures not considered in the fitting process. In this thesis, we review different types of widely used interatomic potentials, and develop an iron-oxygen potential in the Tersoff-Albe formalism. We discuss the strengths and weaknesses of the developed potential, as well the challenges faced in the fitting process. The potential was showed to successfully predict the energetics of various oxygen-vacancy defect clusters in iron, and the basic properties of the common iron oxide wüstite. The potential might therefore mainly be applicable to atomistic simulations involving oxygen-based defects in solid iron, such as irradiation or diffusion simulations.
• (2016)
Thermal instability (hereafter TI) is investigated in numerical simulations to determine its effect on the growth and efficiency of the dynamo processes. The setup used is a three-dimensional periodic cube of a size several times the correlation length of the interstellar turbulence. The simulations are designed to model the interstellar medium without any shear or rotation, to isolate the effect of TI. Hydrodynamical and nonhelical simulations are run for comparison to determine the effects the magnetic field has upon the gas itself. Turbulence is simulated by external helical forcing of varying strength, which is known to create a large-scale dynamo of alpha squared-type. The nonhelical cases are also explored in an attempt to create a small-scale dynamo at high Rm, but no dynamo action could be detected in the range of Rm ~ 30 – 150. The hydrodynamical simulations reproduce the tendency of the gas to separate into two phases if an unstable cooling function is present. The critical magnetic Reynolds number of the large-scale dynamo was observed to be almost twice as large for the unstable versus stable cooling function, indicating that the dynamo is harder to excite when TI is present. The efficiency of the dynamo as measured by the ratio of magnetic to kinetic energy was found to increase for the unstable case at higher forcing. The results of the runs from this thesis are part of a larger project studying dynamo action in interstellar flows.
• (2016)
A quantum computer is a promising addition to a classical computer due to increase in performance on certain computational problems. A classical computer computes by manipulating bits, which assume a value either 0 or 1, using logical gates. Similarly, a quantum computation is carried out by manipulating quantum bits, so-called qubits, using quantum gates. The main advantage of qubits is that they can be not only in the states representing 0 and 1, but also in any superposition of these two states. Many different physical realizations for qubits have been proposed. One of the most promising candidates for the hardware of quantum computing are superconducting circuits. Here, the qubit can be represented in number of ways. For example, the two different states can be the direction of current circulating in a superconducting loop, or presence and absence of a photon in a transmission line. In this thesis, we study a tunable phase gate for microwave photons. The gate is implemented by a transmission line interrupted by three superconducting quantum interference devices (SQUIDs), which we model as inductors. We theoretically show that this system fulfills the requirements of a phase gate and that the tunability of the phase shift is frequency dependent. In addition, we consider a non-ideal system by including the effects of the capacitance associated with the SQUIDs. We find that the capacitance has no adverse effects, and in the best case, it may even increase the range of tunability. We also measure the phase shift at frequency of 6.3 GHz and find that the system is well described by the theory. To our knowledge, similar phase gate has not been experimentally studied before.
• (2016)
Magnetic field has a central role in many dynamical phenomena in the solar corona, and the accurate determination of the coronal magnetic field holds the key to solving a whole range of open research problems in solar physics. In particular, realistic estimates for the magnetic structure of Coronal Mass Ejections (CMEs) enable better understanding of the initiation mechanisms of these eruptions as well as more accurate forecasts of their space weather effects. Due to the lack of direct measurements of the coronal magnetic field the best way to study the field evolution is to use data-driven modelling, in which routinely available photospheric remote sensing measurements are used as a boundary condition. Magnetofrictional method (MFM) stands out from the variety of existing modelling approaches as a particularly promising method. The approach is computationally inexpensive but still has sufficient physical accuracy. The data-based input to the MFM is the photospheric electric field as the photospheric boundary condition. The determination of the photospheric electric field is a challenging inversion problem, in which the electric field is deduced from the available photospheric magnetic field and plasma velocity measurements. This thesis presents and discusses the state-of-the-art electric field inversion methods and the properties of the currently available photospheric measurements. The central outcome of the thesis project is the development and testing of a novel ELECTRICIT software toolkit that processes the photospheric magnetic field data and uses it to invert the photospheric electric field. The main motivation for the toolkit is the coronal modelling using MFM, but the processed magnetic field and electric field data products of the toolkit are usable also in other applications such as force-free extrapolations or high-resolution studies of photospheric evolution. This thesis presents the current state of the ELECTRICIT toolkit as well as the optimization and first tests of its functionality. The tests show that the toolkit can already in its current state produce photospheric electric field estimates to a reasonable accuracy, despite the fact that some of the state-of-the-art electric field inversion methods are yet to be implemented in the toolkit. Moreover, the optimal values of the free parameters in the currently implemented inversion methods are shown to be physically justifiable. The electric field inversions of the toolkit are also used to study other questions. It is shown that the large noise levels of the vector magnetograms in the quiet Sun cause the inverted electric field to be noise-dominated, and thus the magnetic field data from this region should not be considered in the inversion. Another aspect that is studied is the electric field inversion based only on line-of-sight (LOS) magnetograms, which is a considerable option due to much shorter cadence and better availability of the LOS data. The tests show that the inversions based on the LOS data have large errors when compared to the vector data based inversions. However, the results are shown to have reasonable consistency in the horizontal components of the electric field, when the region of interest is near the centre of the solar disk.
• (2016)
Estimates for asteroid masses are based on gravitational perturbations on the orbits of other objects such as Mars, spacecraft, or other asteroids and/or their satellites. In the case of asteroid-asteroid perturbations, this leads to a 13-dimensional inverse problem where the aim is to derive the mass of the perturbing asteroid and six orbital elements for both the perturbing asteroid and the test asteroid using astrometric observations. We have developed and implemented three different mass estimation algorithms utilizing asteroid-asteroid perturbations into the OpenOrb asteroid-orbit-computation software: the very rough ’marching’ approximation, in which the asteroid orbits are fixed at a given epoch, reducing the problem to a one-dimensional estimation of the mass, an implementation of the Nelder-Mead simplex method, and most significantly, a Markov-Chain Monte Carlo (MCMC) approach. We introduce each of these algorithms with particular focus on the MCMC algorithm, and present example results for both synthetic and real data. Our results agree with the published mass estimates, but suggest that the published uncertainties may be misleading as a consequence of using linearized mass-estimation methods. Finally, we discuss remaining challenges with the algorithms as well as future plans.
• (2016)
Sähkömagneettisen aallon käyttäytymisen simuloimisesta on tullut tärkeä työkalu nykyaikana. Laskentaresurssien kasvu on mahdollistanut Maxwellin yhtälöiden ratkaisemisen mitä monimutkaisemmille systeemeille ilman, että systeemiä tarvittaisiin fyysisesti rakentaa. Tästä on hyötyä tähtitieteelle, sillä kaukaisten kohteiden ominaisuuksia voidaan tutkia vertaamalla kohteesta sironnutta valoa laskennalliseen dataan. Ongelmana laskennallisen datan tuottamisessa on, että sähkömagneettisen aallon käyttäytymistä kuvaavia Maxwellin yhtälöitä ei pystytä ratkaisemaan nykyisillä menetelmillä eksaktisti, kun mallinnettava kohde on suuri. Tästä syystä ongelmaa pitää yksinkertaistaa, kuten tehdään säteilynkuljetusohjelmissa. Säteilynkuljetusohjelmissa seurataan sähkömagneettisen aallon kulkua aineessa ja näin pyritään ratkaisemaan, kuinka aine sirottaa säteilyä. Säteilynkuljetusohjelmat onnistuvat ratkaisemaan harvojen aineiden sirontaongelmia, koska sirottajien väliset vuorovaikutusten oletetaan tapahtuvan kaukokenttien kautta, mikä on pätevä approksimaatio harvojen aineiden tapauksessa. Tiheiden aineiden sirontaongelmissa lähikenttien vaikutusta ei voi kuitenkaan sivuuttaa ja siksi säteilynkuljetuksen tulokset tiheille aineille eroavat eksaktista ratkaisusta huomattavasti. Tässä pro gradu -tutkielmassa on esitetty uudenlaisen säteilynkuljetusohjelma R²T² (Radiative Transfer with Reciprocal Transactions) kehitystyötä. Oletamme, että käyttämällä niin sanottua vapaan avaruuden sirontakenttää kaukokenttien sijaan, pystymme laskemaan säteilynkuljetusohjelma R²T²:lla myös tiheiden aineiden sirontaongelmia. Sähkökentät esitetään palloharmonisilla funktioilla ja säteilynkuljetuksessa yksittäiset sirottajat korvataan palloklustereilla, joiden väliset vuorovaikutukset lasketaan käyttämällä superpositio T-matriisimenetelmää. Tutkielmassa perehdytään säteilynkuljetusyhtälön johtoon, sähkömagneettisen kentän esittämiseen palloharmonisilla funktioilla ja superpositio T-matriisimenetelmään. Tutkielmassa käydään läpi R²T²:n algoritmia, jatkosuunnitelmia ja näytetään, että R²T² onnistuu kelvollisesti ratkaisemaan absorboimattomien aineiden ongelmia. Absorption huomioiminen vaatii kuitenkin vielä menetelmän jatkokehitystä.
• (Helsingin yliopisto, 2011)
Thermal instability (hereafter TI) is investigated in numerical simulations to determine its effect on the growth and efficiency of the dynamo processes. The setup used is a three-dimensional periodic cube of a size several times the correlation length of the interstellar turbulence. The simulations are designed to model the interstellar medium without any shear or rotation, to isolate the effect of TI. Hydrodynamical and nonhelical simulations are run for comparison to determine the effects the magnetic field has upon the gas itself. Turbulence is simulated by external helical forcing of varying strength, which is known to create a large-scale dynamo of alpha^2-type. The nonhelical cases are also explored in an attempt to create a small-scale dynamo at high Rm, but no dynamo action could be detected in the range of Rm of approximately 30 150. The hydrodynamical simulations reproduce the tendency of the gas to separate into two phases if an unstable cooling function is present. The critical magnetic Reynolds number of the large-scale dynamo was observed to be almost twice as large for the unstable versus stable cooling function, indicating that the dynamo is harder to excite when TI is present. The efficiency of the dynamo as measured by the ratio of magnetic to kinetic energy was found to increase for the unstable case at higher forcing. The results of the runs from this thesis are part of a larger project studying dynamo action in interstellar flows.