Faculty of Science

 

Recent Submissions

  • Ilonen, Annukka (Helsingin yliopisto, )
    In the 21st century, there is an intensified social-political mindset, where people are no longer separated from nature. As a result concepts and theories of ecological research become part of regional policy and spatial planning. At the same time, ecological knowledge, technology orientation and the economic potential created by them form an equilibrium between them. It may, depending on the context, turn to the barrier or benefit of the economy. Talking about the ecologicalization of politics which affecting all spatial planning levels in Finland. It has caused to conflicts in land use planning, when you try to take into account the importance of the nature of knowledge and to protect the directive species, such as flying squirrels. The aim of the study is to find out about the written material and the interviews with the peasants: what the flying squirrel conservation is all about and how it related to the ecologicalization of politics and what are the reasons for the species's conservation zoning conflicts and how can they be solved? As a case study, I will look at the Tramway project in Tampere, from the point of view of the flying squirrel’s conflict and ecologicalization of politics. At the same time, the aim is to develop the concept of ecologicalization of politics and to produce new information about the prevailing greenish social change. Flying squirrel (Pteromys volans) is protect by a politically determined decision in the European Union area and it’s the small-scale night-life mammal which occurs grown up in mixed forests. In the EU, species occur in Finland and small quantities in Estonia and possibly in Latvia. Given that the EU is responding to the problem of state protection, the common species in Finland is the directive specie which requires special protection. The Habitats Directive has been implemented in Finland's National Nature Conservation Act at the end of the 1990s and the directive prohibits the eradication and deterioration of breeding and resting places of the species. In addition, the guiding regulation of the protection of the flying squirrel is included in the Land Use and Building Act, Land Act and Forest Law. Despite the protection of the flying squirrel population is estimated declined from the period after the Second World War in Finland, but the species is classified as held for an eye only. The calculation of population classification has been criticized. The entry into force of the Land Use and Building Act in 2000 was an important legal reform for the protection of the flying squirrel. A key change in the law had made land use planning objectives addition of "conservation of biodiversity and other natural values". In addition, the sections on increasing interaction and impact assessment of zoning have made the planning process more transparent and added the importance of nature enthusiasts. Influencing people often involves complaining about patterns, which is unfortunate. It offers residents the opportunity to influence the surrounding environment and protect nature, such as flying squirrels. Grown up in mixed forests of the flying squirrel favored often set in the cities, because the mixed forests have reduced and fragmented due to forestry in outside the cities. Urban forests directed to a plurality of user requirements, because it can be flying squirrel homeforests, residents recreational use, commercial forest and zoning residences area. Flying squirrel in the comfort of urban forests is challenging because growing cities expand and condense. The protection of the flying squirrel has caused conflict’s situations in many cities. An example of this is Pirkanmaa long flying squirrel conflict history and its recent case in Tampere’s tram project. The tramway is a matter of valuing of the political decision-making, where the construction the tram means ignoring another environmental value, nature conservation. The flexible nature of ecologicalization of politics is manifested in a tramway project, when ecological knowledge of the flying squirrel turns against economic goals and co-operation between actors. For people who benefit from economic growth and for the city's growth, the flying squirrel is a financial slowdown which complicates regional cooperation in Tampere urban area. Although the protection of flying squirrel is not just a matter of protecting the city's local level, but also regional co-operation, as the dynamic species moves away from the municipal boundaries.
  • Kapoor, Shubham (Helsingfors universitet, 2017)
    Challenges in managing cellular networks have grown in magnitude over the years. Upcoming 5G networks will further complicate the problem by introducing a larger number of scattered Network Elements (NEs) and functions than the prior cellular generations. Due to investment costs and user retention reasons, older technologies are not completely scraped out while new technologies are being introduced in the network. This results in a large, heterogeneous and complex network, which makes the data used to manage the network i.e. Management Plane (M-Plane) data, a big data candidate for the telcos. The conventional centralised Network Management Systems (NMS) will face fundamental scaling challenges in processing this big data, be it its collection, storage or quick analysis. In this thesis, we propose a novel concept of Quality of Monitoring (QoM) classes, which could be used for mobile edge compression of M-plane data. QoM classes specify the quality by which M- Plane data can be collected from the NEs. Quality here specifies the amount of relative information loss acceptable by network management applications consuming M-Plane data. The best QoM class with zero information loss could be assigned to monitor most critical NEs, while inferior QoM classes with some degree of information loss could be assigned to monitor auxiliary NEs. The proposed solution is based on the Publish/Subscribe paradigm for data delivery. The Publish/Subscribe paradigm makes the solution scalable and efficient by collecting data only once and providing flexibility to update QoM class subscription on the fly. The solution aggregates raw M-Plane data into a smaller set of the operator-defined performance metrics. This data is further compressed by removing portions of data with redundant or small information content. This helps the proposed solution to achieve reduction in the complexities of 3Vs (Volume, Variety and Velocity) of M-Plane data. The solution achieves quick processing of M-Plane data while saving the computational, bandwidth, storage and energy resources of the cellular operator.
  • Kämäri, Hannu (Helsingfors universitet, 2017)
    Tässä pro gradu -tutkielmassa tavoitteena oli luoda referenssiarkkitehtuuri Big Data -teknologioita hyödyntäen sensoridatan vastaanottamiseksi ja käsittelemiseksi. Luotavan referenssiarkkitehtuurin oli tarkoitus laajentaa olemassa olevaa tietoarkkitehtuuria sensoriaineiston käsittelyn vaatimilla komponenteilla. Nykyinen tietoarkkitehtuuri koostuu operatiivisesta tietokannasta ja tietovarastosta, johon tiedot historioidaan raportoinin tarpeisiin. Toiminnallisena taustana muutokselle on ympäristöterveydenhuollon järjestelmäuudistus. Uuden järjestelmän yhdeksi tavoitteeksi on asetettu sensoridatan käytön lisääminen. Elintarviketurvallisuuden osalta ilmeisin vaihtoehto on Eviran asiantuntijoiden mukaan ravintoloiden kylmätilojen lämpötilan ja kosteuden mittaaminen. Sensoriaineistoa arvioitiin tulevan niin paljon, että sen käsittely ei tietoarkkitehtuurin nykyisillä ratkaisulla olisi mahdollista. Tapauksen pohjalta luotiin vaatimusluettelo ja sen tueksi kerätiin olennaiset kohdat nykyisen järjestelmätoimittajan arkkitehtuuriperiaatteista. Ratkaisua haluttiin etsiä Big Data -teknologioista ja erityisesti reaaliaikaiseen tiedonkäsittelyn mahdollistavista tietovirtojen käsittelyyn suunnatuista teknologioista. Työ on luonteeltaan konstruktiivinen. Siinä luotiin referenssiarkkitehtuuri, joka arvioitiin DCAR-mentelmällä. Arkkitehtuurin rakentamista taustoitettiin teknologiakartoituksella tietovirtojen käsittelyyn tarkoitetuista Big Data -teknologioista. Referenssiarkkitehtuuri kuvatiin JHS-179 -standardilla. Toteutettu kokonaisuus sisältää kuvaukset toiminta, tieto-, tietojärjestelmä ja teknologia-arkkitehtuureista.
  • Gibson, Clint (Helsingfors universitet, 2017)
    Albert Einstein’s General Theory of Relativity radically transformed our understanding of gravitation. Along with this transformative view came several powerful predictions. One of these predictions, the deflection of light in a gravitational field, has proven in recent decades to be crucial to the study of cosmology. In this work we present the foundational theory of gravitational lensing, with a particular focus on the weak regime of lensing. Weak gravitational lensing produced by the large scale structure, called cosmic shear, induces percent level distortions in the images of distant galaxies. Gravitational lensing is of particular interest, since the image distortions are due to all of the matter in the large scale structure, including dark matter. We present the definitions of shear and convergence which are used to quantify the source galaxy image distortions, and discuss some techniques shown in literature which are used for measuring these quantities. This includes presenting the necessary derivations which connect these quantities to two particular classes of results: mass map reconstructions and cosmological parameter constraints. We present some results obtained in recent years: mass map reconstructions obtained using the Canada-France-Hawaii-Telescope Lensing Survey (CFHTLenS) and the Cosmological Evolution Survey (COSMOS), and constraints on the parameters Ω_m and σ_8 (the total matter density parameter and the power spectrum normalization) obtained using CFHTLenS, COSMOS, the Kilo Degree Survey (KiDS), and the Dark Energy Survey (DES). This includes some discussion of apparent tensions with results obtained from Planck (using observations of the cosmic microwave background—a completely different cosmological probe) and of some inconsistencies within the more recent survey results.
  • Ryyppö, Timo (Helsingfors universitet, 2012)
    Islannissa purkautui Eyjafjallajökull-niminen tulivuori 14.4.2010. Purkauksen voimakkuus ja siitä syntynyt tuhkapilvi pysäytti lähes koko Euroopan lentoliikenteen Suomi mukaan lukien. Tässä pro gradu -tutkielmassa kerrotaan, miksi juuri Islannissa purkautui tulivuori, ja mitä vaikutuksia purkauksella oli. Tutkielma esittelee erilaisia menetelmiä havainnoida ja mallintaa tuhkan kulkeutumista. Tulkitsemalla ja yhdistämällä erilaisten mallien ja menetelmien tuloksia pyritään vastaamaan kysymykseen: oliko Suomessa tuhkaa vai ei? Tutkielma painottuu kaukokartoitusmittauksiin sekä satelliiteista että maanpinnalta. Satelliittiaineisto on peräisin Ilmatieteen laitoksen (IL) Lapin ilmatieteellisessä tutkimuskeskuksessa vastaanotettavista satelliiteista. Käytetyt satelliitti-instrumentit ovat MODIS (Moderate Resolution Imaging Spectroradiometer) ja OMI (Ozone Monitoring Instrument). Maanpinnalta tehdyt kaukokartoitushavainnot on tehty Brewer-spektrofotometrilla ja PFR-aurinkofotometrillä (Precision Filter Radiometer). PFR-mittauksia on sekä Sodankylästä että Jokioisista ja Brewer-mittauksia Sodankylästä. Kaukokartoitusaineiston lisäksi tutkielmassa käytetään kahta numeerista mallia: IL:n SILAMia (System for Integrated modeLling of Atmospheric coMposition) sekä UK Met Officen NAMEa (Numerical Atmospheric-dispersion Modelling Environment). Näiden lisäksi IL:n rikkidioksidimittausverkostoa käytetään sekä vertailussa satellittiaineiston kanssa että trajektorianalyysissä. Tutkielmassa käytettiin erilaisia lähestymistapoja tuhkan olemassaolon ja määrän selvittämiseen. Minkään yksittäisen mittauksen tai mallin perusteella ei kuitenkaan voida varmasti sanoa, oliko Suomessa vulkaanista tuhkaa vai ei keväällä 2010. Tätä voidaan pitää tutkielman tärkeimpänä johtopäätöksenä. Tulivuorten purkausten havainnoimisessa ja monitoroinnissa onkin tärkeää yhdistää erilaisten mittausten, ja mallien tuloksia ja tarkastella näitä suurena kokonaisuutena.
  • Kangasluoma, Juha (Helsingfors universitet, 2012)
    Uusien hiukkaslaskurien kehitys on luonut tarpeen tuottaa aerosoleja alle kahden nanometrin kokoluokassa. Kahden nanometrin kokoisten aerosolien tuottaminen ei ole uusi asia, mutta kyseisessä kokoluokassa esimerkiksi hiukkasten varaaminen ja epäpuhtaudet ovat merkittävässä roolissa. Sen vuoksi tämän työn mittauksissa on mukana myös massaspektrometri, jota ei aikaisemmin ole hyödynnetty hiukkaslaskurien kalibroinneissa. Tässä työssä tavoitteena oli tuottaa ja karakterisoida puhdas alle kahden nanometrin kokoinen aerosoli. Aerosolin tuottamiseen käytettiin uunia, kuumalankageneraattoria ja elektrosprayta. Elektrospraylla tuotetut hiukkaset olivat itsestään varattuja, muut tuotetut hiukkaset varattiin Am241 varaajalla. Liikkuvuusanalysaattori oli korkean resoluution Herrmann DMA (differential mobility analyzer), joka valitsee näytteestä halutun kokoiset hiukkaset ja sen resoluutio on noin 20. DMA:n jälkeen näyte johdettiin kolmelle mittalaitteelle, jotka mittasivat rinnakkain. Massaspektrometri, APi-TOF (atmospheric pressure interface, time of flight mass spectrometer) on hiukkasen lentoaikaa mittaava instrumentti, johon voidaan näyte johtaa suoraan ilmakehän paineesta. APi-TOF:n rinnalla mittasi elektrometri, joka mittaa näytteen kokonaisvarauksen, sekä PSM, joka oli mittausten kalibroitava instrumentti. Vaihtelemalla DMA:lla valittua liikkuvuutta saatiin selville hiukkasten pitoisuus, PSM:n havaintotehokkuus sekä massaspektri koon funktiona. Ammoniumsulfaatin kemialliseksi koostumukseksi määritettiin (HSO4)x(NH3)ySO4- ja (HSO4)x(NH3)yH3SO4+, natriumkloridin (NaCl)x(massa 106)yCl- ja (NaCl)x(massa 106)yNa+ ja volframioksidin H0-2WyOz(massa 88)0-2-. Positiivsen volframioksidin kemiallista koostumusta ei pystytty selvittämään. Positiivisesti varatut ammoniumsulfaatti, natriumkloridi ja volframioksidi olivat alle 1.5 nm:n koossa kontaminoituneet orgaanisilla yhdisteillä. Hopeanäytteestä tunnistettiin klusterit Agx-, missä x=7, 17, 19 ja Agy(massa 224)+ ja HAgy(massa 224)+. y on pariton kun klusterissa ei ole vetyä ja parillinen vedyn kanssa. Hopeaspektri oli kuitenkin pääosin kontaminoitunut hopean ja orgaanisten epäpuhtauksien klustereilla. PSM:n leikkausrajoiksi määritettiin 1.3, 1.6, 1.7, ja 1.7 nm:a negatiiviselle natriumkloridille, ammoniumsulfaattille, volframioksidille ja hopealle vastaavasti. Kaikkien positiivisten orgaanisten näytteiden leikkausraja oli noin 1.8 nm.
  • Naaranoja, Tiina (Helsingfors universitet, 2014)
    The Large Hadron Collider (LHC) at CERN is currently being started up after a long shutdown. Another similar maintenance and upgrade period is due to take place in a few years. The luminosity and maximum beam energy will be increased after the shutdowns. Many upgrade projects stem from the increased demands from the changed environment and the opportunity of installation work during the shutdowns. The CMS GEM collaboration proposes to upgrade the muon system in CMS experiment by adding Gaseous Electron Multiplier (GEM) chambers. The new GEM-detectors need new Front-End electronics. There are two parallel development branches for mixed-signal ASICs; one comes with analog signal processing (VFAT3-chip) and another with analog and digital signal processing (GdSP-chip). This Thesis covers the development of the digital signal processing for the GdSP-chip. The design is described on algorithm level and with block diagrams. The signal originating in the triple GEM-detector sets special challenges on the signal processing. The time constant in the analog shaper is programmable due to irregularities in the GEM-signal. This in turn poses challenges for the digital signal processing. The pulse peaking time and signal bandwidth depend on the choice made for the time constant. The basic signal processing techniques and needs are common for many detectors. Most of the digital signal processing has shared requirements with an existing, well-tested Front-End chip. Time pick-off and trigger production was not included in these shared tasks. Several time pick-off methods were considered and compared with simulations. The simulations were performed first using Simulink running on Matlab and then on Cadence tools using Verilog hardware description language. Time resolution is an important attribute determined jointly by the detector and the signal processing. It is related to the probability to associate the measured pulse with the correct event. The effect of the different time pick-off methods on time resolution was compared with simulations. Only the most promising designs were developed further. Constant Fraction Discriminator and Pulse Recognition, the two most promising algorithms, were compared against analog Constant Fraction Discriminator and Time over Threshold time pick-off methods. The time resolutions obtained with noiseless signal were found to be comparable. At least in gas detector applications digital signal processing should not be ruled out of fear for deteriorated time resolution. The proposed digital signal processing chain for GdSP includes Baseline Correction, Digital Shaper, Integrator, Zero Suppression and Bunch Crossing Identification. The Baseline Correction includes options for using fixed baseline removal and moving average filter. In addition it contains a small memory, which can be used as test signal input or as look-up-table et cetera. Pole-zero cancellation is proposed for digital shaping. The integrator filters high frequency noise. The Constant Fraction Discriminator was found optimal for Bunch Crossing Identification.
  • Chen, Xuemeng (Helsingfors universitet, 2014)
    The study of air ions by applying air balance concept based on the Hyytiälä SMEAR II station measurement was performed in this work. Diurnal and seasonal variations in ion concentration and environmental ionizing radiation were studied by analysing data collected from long-term measurements. Total gamma radiation was the main source for ion production in the atmosphere, which can be attenuated by snow cover during winter periods. α and β emissions from radon decay process showed a share of about 20% in the production of total ion pairs, which were sensitive to variations in soil conditions. In general, more positive ions than the negative ones exist at ground level due to the earth electrode effect. Similar patterns were found in cluster ion concentration and the ion source rate derived from the total gamma radiation. On days with new particle formation (NPF), a relation was observed between cluster ion concentration, wind speed, temperature (T) as well as relative humidity (RH). A similar connection was also identified in ion source rate and ion production rate to T and RH. A high ion source rate derived from gamma dose rate was observed on non-event days and low on NPF days. The reversed case was found in the source rate derived from radon decay emissions. The ion production rate was typically higher on NPF event days than on non-event days. Two approaches were carried out in the determination of the ion production rate in the cluster size range by using an improved balance equation of air ions. The similar values obtained using these two approaches imply a balanced condition between ionizing source and the observed ion concentration. This suggests that measurement of air ions by the Balanced Scanning Mobility Analyser (BSMA) is likely to be reliable, though accurate parameterization for sub-0.8 nm ions is not available to the present knowledge. Moreover, the ion production rate and formation rate were found incomparable.
  • Nyrhinen, Mikko (Helsingfors universitet, 2014)
    Eräiden sairauksien sekä jatkuvien verensiirtojen seurauksena potilailla saattaa esiintyä poikkeuksellista raudan kertymistä elimistöön. Raudan kertyminen elinten peruskudoksiin voi aiheuttaa rautaperäisiä pysyviä kudosvaurioita. Magneettikuvauksen (MK) gradienttimonikaikusekvensseistä saaduista kaikukuvista laskettujen T2*relaksaatioaikojen on havaittu lyhenevän elimistön rautapitoisuuden kasvaessa. Nykyään ei kuitenkaan ole vielä varmuutta parhaasta tavasta analysoida näitä kuvia.Työn tarkoituksena oli vertailla kirjallisuudessa esiteltyjä analyysitapoja T2*relaksaatioaikojen määrittämiseksi. Työssä tarkasteltiin, onko eri analyysimenetelmillä, ROIalueilla, sekvensseillä sekä sovitusmalleilla tilastollisesti merkittäviä eroja. Työssä tutkittiin myös maksan ja sydämen septumin rautapitoisuuden spatiaalista vaihtelua. Maksan ja sydämen potilasaineisto oli kuvattu käyttäen kahta 1,5 T magneettikuvauslaitetta: Siemens Avanto sekä Philips Achieva. Kaiken kaikkiaan työssä oli käytettävissä 57 leikesarjaa maksasta ja 9 leikesarjaa sydämestä. Työssä vertailtiin kahta erilaista sovitusalgoritmia: lineaarista pnssovitusta sekä epälineaarista LevenbergMarquardtalgoritmia. Työssä vertailtiin yhteensä viittä erilaista sovitusmallia: monoeksponentti, pohjatason vähännys, kohinan korjaus, katkaisu sekä tasoitusmallia. ROIpohjaisen analyysin lisäksi suoritettiin analyysi myös pikselikohtaisella menetelmällä käyttäen 3x3 sekä 5x5 keskiarvoistusta kohinan ja liikeartefaktojen vähentämiseksi. Pikselikohtaisesta menetelmästä tulokseksi saatuja T2*karttoja vertailtiin ROIpohjaisesta menetelmästä saatuihin tuloksiin. Tasoitusmallista saatiin parhaimmat sovitukset, kun taas monoeksponenttimallista lineaarisella sovituksella saatiin huonoimmat sovitukset. Sekä monoeksponenttimalli lineaarisella sovituksella että tasoitusmalli poikkesivat tilastollisesti merkittävästi muista sovitusmalleista. Työssä ei havaittu tilastollisesti merkittäviä eo ja ROIpohjaisen eikä pikselikohtaisen menetelmän välillä. Myöskään keskiarvoistuksella ei havaittu olevan tilastollisesti merkittävää vaikutusta.Työssä ei havaittu tilastollisesti merkittäviä eroja eri ROIalueiden eikä eri sekvenssien välillä. Työssä havaittiin monoeksponenttimallin lineaarisella sovituksella olevan huonoin sovitusmalli. Muilla sovitusmalleilla saatiin toisiaan lähellä olevia tuloksia kliinisesti mielenkiintoisilla T2*relaksaatiajoilla. Työssä havaittiin T2*karttojen olevan hyödyllinen apuväline maksan rautapitoisuuden määrittämiseksi. Sydämen tapauksessa ROIpohjainen menetelmä havaittiin pikselikohtaista menetelmää paremmaksi. Jatkotutkimuksissa menetelmää voitaneen kehittää parantamalla sovitusalgoritmeja, sovitusmalleja sekä pikselikohtaista menetelmää.
  • Kontkanen, Jenni (Helsingfors universitet, 2012)
    Uusien hiukkasten muodostuminen on merkittävä prosessi, jossa neutraalit klusterit ovat todennäköisesti tärkeässä roolissa. Tässä työssä tarkastellaan alle 2 nm:n kokoisten neutraalien klusterien pitoisuuksia ja niihin vaikuttaneita tekijöitä vuoden 2011 maalis-toukokuussa Hyytiälässä. Asemalla mitattiin tuolloin kaikkien klusterien kokojakaumaa hiukkaskoonsuurentajalla (PSM), varattujen klusterien kokojakaumaa ilman neutraalien klusterien ja ionien spektrometrillä (NAIS) sekä useita meteorologisia suureita ja kaasujen pitoisuuksia. Mittauksista määritettiin neutraalien, varattujen ja ioni-ioni-rekombinaatiossa muodostuneiden klusterien pitoisuudet kuudessa kokoluokassa (0,9–1,1 nm, 1,1–1,3 nm, 1,3–1,5 nm, 1,5–1,7 nm, 1,7–1,9 nm ja 1,9–2,1 nm). Klusterien kokonaispitoisuuden mediaani välillä 0,9–2,1 nm oli noin 4850 cm^-3. Eri kokoluokkia tarkastellessa pitoisuuden havaittiin laskeneen klusterikoon kasvaessa. Neutraalit klusterit dominoivat kaikkia kokoluokkia etenkin hiukkasmuodostuksen aikaan. Tämä viittaa neutraalien nukleaatiomekanismien olevan Hyytiälässä ionivälitteisiä mekanismeja tärkeämpiä. Neutraalien klusterien pitoisuus vaihteli voimakkaammin kuin ionien ja rekombinaatiotuotteiden pitoisuudet; maksimissaan se oli hiukkasmuodostus- eli eventtipäivien keskipäivällä. Pienimmässä kokoluokassa klusteripitoisuus oli ei-eventtipäivinä samansuuruinen kuin eventtipäivinä, mutta suurimmissa kokoluokissa pitoisuudet olivat ei-eventtipäivinä matalampia. Niinpä on todennäköistä, että suurimpien kokoluokkien klusterit osallistuvat hiukkasmuodostukseen, mutta pienimmän kokoluokan klusterit eivät osallistu. Hiukkasmuodostuksen aikaan UV-säteily ja lämpötila korreloivat pienimpien ja suurimpien kokoluokkien neutraalien klusterien kanssa positiivisesti ja suhteellinen kosteus ja potentiaalilämpötilan gradientti negatiivisesti. Vesihöyrypitoisuus korreloi klusteripitoisuuden kanssa positiivisesti pienimmässä kokoluokassa ja negatiivisesti suurimmissa kokoluokissa. Pienimpien kokoluokkien klusterit korreloivat positiivisesti kondensaationielun kanssa. Eri kaasuista klusteripitoisuuden kanssa voimakkaimmin korreloi rikkihappo; korrelaatio oli voimakasta etenkin hiukkasmuodostuksen aikaan suurimmissa kokoluokissa (korrelaatiokerroin oli noin 0,6–0,7). Ammoniakki- ja otsonipitoisuuden kanssa korrelaatio oli heikompaa. Metanoli- ja monoterpeenipitoisuudet korreloivat klusteripitoisuuden kanssa positiivisesti pienimmissä kokoluokissa ja kaasupitoisuuksien kertominen UV-säteilyllä vahvisti korrelaatioita.
  • Latikka, Mika (Helsingfors universitet, 2014)
    Extremely water-repellent, i.e. superhydrophobic, surfaces display self-cleaning, anti-icing and anti-fogging characteristics, and can be used to reduce viscous drag in liquid flow. Despite the auspicious prospects of superhydrophobicity, methods for measuring wettability and energy dissipation in droplets moving on these surfaces have been insufficient. In this thesis I present the theoretical basis of non-wetting phenomena and review contemporary wetting characterization methods. I also discuss a measuring technique we developed for superhydrophobic surfaces based on magnetically induced oscillations of water-like ferrofluid droplets, which was recently published in Nature Communications. This method can simultaneously measure forces caused by two independent dissipative processes at a precision of ca. 10 nN. One is related to the contact angle hysteresis at the three-phase contact line and the other to viscous dissipation near the droplet-solid contact area. The ability to provide quantitative information about droplet dynamics, inhomogeneities and defects on extremely non-wetting surfaces can make this a useful research and quality control technique for academic and commercial use.
  • Mattila, Markus (Helsingfors universitet, 2015)
    Studerandes begreppsförståelse är av stort intresse inom fysikundervisningen. Inte minst eftersom slutprov och eventuella förhör ofta ämnar att summativt bedöma just denna begreppsförståelse. De olika fysikaliska begreppen förekommer dock inte som från varandra isolerade entiteter, utan är kopplade till varandra på olika sätt via modeller. I den här undersökningen utreds hurdana förklaringsmodeller studerande använder då de förklarar glödlampors relativa ljusstyrka i likströmskretsar. Förutom själva förklaringsmodellerna så undersöks även hur studerandes användning av förklaringsmodeller ändras då de löser samma uppgift andra gången. Dessutom granskas hurdana förklaringsmodeller används av de studerande som är bra på att lösa de framförda likströmskretsuppgifterna. Som grund för forskningen användes transkriberade intervjuer där studerande skulle göra förutsägelser om likströmskretsar som presenterades för dem. Som intervjuobjekt fungerade femton (N=15) studerande på Helsingfors universitet vilka alla var ämneslärarstuderande med fysik som biämne. Ur detta material plockades sex (N=6) studerande vilkas svar analyserades med hjälp av en latent innehållsanalys. Totalt tretton olika förklaringsmodeller kunde urskiljas i studerandes resonemang. Då studerande löste samma uppgift för andra gången kunde två saker observeras. Om lamporna i likströmskretsen hade samma resistans så minskade de studerande i regel på antalet förklaringsmodeller de använde. Men om lamporna i likströmskretsen hade olika resistans så kunde motsvarande minskning inte observeras. De studerande som ofta resonerade korrekt i uppgifterna använde sig av förklaringsmodeller där begreppen elektrisk effekt eller energi framkom.
  • Honkanen, Ari-Pekka (Helsingfors universitet, 2015)
    Röntgensäteily on monipuolinen modernin materiaalitieteen tutkimusmenetelmä, jolla voidaan tutkia aineen rakennetta makroskooppisesta kokoluokasta aina atomitasolle asti. Tunnetuimpia röntgensäteilyn sovelluksista ovat erilaiset kuvantamismenetelmät, mutta säteilykentän kvantittuminen mahdollistaa myös aineen viritystilojen ja siten sen rakenneosasten keskinäisten vuorovaikutusten tutkimisen. Diffraktio on yleiskäsite ilmiöille, joissa aaltoliike vaikuttaa taipuvan jonkin kohteen vaikutuksesta interferenssin vuoksi. Röntgendiffraktiosta puhuttaessa tarkoitetaan yleensä röntgensäteilyn diffraktiota järjestyneestä aineesta. Säteilyn interferenssistä johtuen röntgensäteilyn diffraktoituminen kiteestä on mahdollista vain tietyillä aallonpituuksien ja sirontakulmien yhdistelmillä. Tämä mahdollistaa röntgensäteilyn monokromatisoinnin ja kohdistamisen esimerkiksi yhtenäiskiteillä, mitä voidaan hyödyntää röntgenspektroskopiassa. Nykyään parhaimman energian erotuskyvyn röntgenspektrometrit perustuvat röntgensäteilyn diffraktioon kiteistä. Kidespektrometri voidaan toteuttaa usealla eri tavalla, joista monet hyödyntävät taivutettuja kiteitä. Eräs yleisesti käytetty kidespektrometrityyppi perustuu niin kutsuttuun Johannin geometriaan, missä tutkittava säteily monokromatisoidaan ja kohdistetaan ilmaisimelle kidekiekolla, joka on taivutettu pallopinnalle. Vaikka Johannin geometria ei ole ideana uusi, pallotaivutettujen analysaattorien heijastusominaisuuksien teoreettinen ymmärrys on ollut viime aikoihin asti puutteellista. Tässä opinnäytetyössä johdetaan lineaarisesta lujuusopista lähtien analyyttinen lauseke pallotaivutetun kidekiekon venymäkentälle ja käytetään sitä yhdessä dynaamisen diffraktioteorian kanssa analysaattorin röntgenheijastusominaisuuksien laskemiseksi. Teorian ennusteita verrataan kahdesta eri piianalysaattorityypistä kokeellisesti määritettyihin heijastuskäyriin. Ennustettujen ominaisuuksien todettiin vastaavan mittaustuloksia erinomaisesti. Teorian lisäksi työssä esitellään siihen pohjautuva, röntgenilmaisimen paikkaherkkyyttä hyödyntävä mittausmenetelmä, jolla on mahdollista parantaa kidespektrometrin energian erotuskykyä menettämättä kuitenkaan näytteestä sironnutta säteilyä. Menetelmän toimivuutta on havainnollistettu sekä simuloidulla että mitatulla röntgenspektridatalla, missä kummassakin tapauksessa saavutettiin tekijän kaksi parannus energian erotuskyvyssä. Teoria ja mittausmenetelmä on julkaistu alan vertaisarvioidussa lehdessä artikkeleissa [J. Synchrotron Radiat. 21:104–110, 2014] ja [J. Synchrotron Radiat. 21:762–767, 2014].
  • Törmä, Anniina (Helsingfors universitet, 2015)
    Meteorologin rooli ja sään ennustaminen ovat tekniikan ja numeeristen säämallien kehittymisen takia muuttuneet ajan kuluessa. Sään ennustaminen on aina vain enemmän tekniikan ja meteorologin yhteistyötä. Jatkuvasti paranevat numeeriset säämallit ovat tulevaisuudessa meteorologin tärkein työkalu, mutta meteorologin intuitiota, kokemusta, tietoja ja taitoja ei koneella voida korvata. Hyvä meteorologi tunnistaa tilanteet milloin ja miten lisäarvoa pystyy tuottamaan. Meteorologia tarvitaan tulevaisuudessa, jos hän pystyy tuomaan lisäarvoa numeerisiin ennusteisiin. Tämän tutkimuksen tavoitteena on selvittää tuottaako meteorologi sääennustetta laadittaessa ennusteelle merkittävää ja oleellista lisäarvoa, ja onko lisäarvon tuotto riippuvainen säätyypeistä ja vuodenajoista. Tutkimusosassa käytetään Ilmatieteen laitoksen verifiointi- ja luotausaineistoa. Käytössä ovat vuorokauden ylimmät ja alimmat lämpötilahavainnot vuosilta 2010-2013 Jokioisista ja Sodankylästä. Lisäarvoa tutkitaan vertaamalla havaintoja sekä meteorologin ennusteeseen ja HIRLAM:in ja ECMWF:n malliennusteisiin. Tutkimuksessa selviää, että meteorologi tuo Ilmatieteen laitoksella vuosina 2010-2013 merkittävästi lisäarvoa numeerisiin ensimmäisen vuorokauden lämpötilaennusteisiin. Meteorologin osuvuus on 5,9 % numeerisia säämalleja parempi. Lisäarvon tuottoon vaikuttaa vuodenaika, ennustettava muuttuja, sijainti sekä säätyyppi. Tutkimuksessa selviää, että vuodenajalla on enemmän merkitystä meteorologin tuomaan lisäarvoon kuin säätyypillä. Meteorologin lisäarvo on sitä suurempi, mitä enemmän säämallilla on vaikeuksia. Säämalleille vaikeita tilanteita ovat esimerkiksi talven minimilämpötilojen ennustaminen inversiotilanteissa. Eniten lisäarvoa syntyy säämallista riippuen keväällä tai kesällä. Eri virtaussuunnilla lisäarvon tuotto on helpointa kaakkoisvirtauksen vallitessa. Vähäisintä se on virtauksen käydessä koillisesta. Ilmanpaineen suhteen tarkasteltuna lisäarvon tuotto pienenee, kun ilmanpaine pienenee.
  • Böök, Herman (Helsingfors universitet, 2012)
    Säähavainnonteon automatisoinnin kasvava trendi on ollut havaittavissa jo useiden vuosien ajan. Automatisoinnin hyötyjä ovat kustannustehokkuus, havainnonteon objektiivisuus sekä havainnointitiheyden helppo kasvattaminen. Automatisointi vaatii kuitenkin myös laadullista seurantaa. Havaintolaitteistojen sisäisiin ohjelmistoihin ei useimmiten ole pääsyä, joten havaintoihin joudutaan soveltamaan jälkikäteen määriteltyjä korjausluokitteluita ja testejä. Tutkielmassa perehdytään eri sääolosuhteissa vallitseviin olosuhteisiin ja niiden vallitsevan sään automaattiselle havainnoinnille tuomiin haasteisiin. Tutkimuksen lähestymistapa pohjautuu Alankomaiden ilmatieteen laitoksessa (KNMI) tehtyyn tutkimukseen. Tutkittavana havaintolaitteena on Vaisalan valmistama vallitsevan sään anturi, FD12P, jonka mittaustekniikka perustuu optisen eteenpäinsironnan, sadeanturin kapasitanssin, sekä lämpötilamittausten yhteiskäyttöön. Tavoitteena on rajata eri sääilmiöissä vallitsevia tilastollisia sääolosuhteita ja implementoida niitä automaattisen säähavainnoinnin havainnontarkastukseen. Samoja periaatteita noudattaen pyritään kehittelemään uudenlainen luokittelumenettely anturin mittaaman tuntemattoman sateen olomuodon sääluokalle. Aineistona käytettiin Helsinki-Vantaan ja Rovaniemen lentoasemien havaintoja vuosilta 2003-2012. WMO:n koodistojen mukaan ilmoitetut vallitsevan sään havainnot yhdenmukaistettiin sääilmiön mukaisiin säätyyppeihin. Luokittelun jälkeen automaatin mittaussarjoihin sovellettiin automaattisia lämpötilan, kostealämpötilan, FD12P:n mittaaman sateen intensiteetin sekä näkyvyyden, suhteellisen kosteuden, pilvisyyden ja pilvenkorkeuden havainnoista johdettuja korjausalgoritmeja. Automaatin mittaamaan alkuperäisdataan sovellettiin 23:a eri korjausalgoritmia parhaimmillaan neljällä eri modifikaatiolla. Korjausalgoritmien laatua tarkkailtiin viiden mm. sääennusteiden verifioinnissa laajalti käytetyn tunnusluvun sekä osuvuusmatriisien avulla. Manuaaliset havainnot toimivat referenssinä. Mittausten laatua parantaneita algoritmeja kertyi lopulta 16 kappaletta. Havaintoasemien yhdistetyn aineiston sääilmiöiden osuvuus parani kokonaisuudessaan 8,1 prosenttiyksikköä. Tuntemattoman sadeluokan uusi menettely tarkensi tuntemattoman sateen luokittelua 11,6 prosenttiyksikköä. Virheelliset havainnot pienentyivät molemmissa tapauksissa merkittävästi. Kokonaisuudessaan uudenlaisten korjausalgoritmien sekä tuntemattoman sadeluokan uusi korjausmenettely antoi rohkaisevia tuloksia. Optimaalisten korjausten saavuttaminen vaatinee joka tapauksessa vielä hieman lisätutkimusta. Lopullista operatiiviseen käyttöön soveltamista ennen tulee määritellä myös käytettävien korjausalgoritmien haluttu aggressiivisuus sekä niiden sovellettavuusaste.
  • Nikbakhsh, Shabnam (Helsingfors universitet, 2014)
    This dissertation develops and introduces a new interplanetary (IP) shock database. The database includes currently IP shocks and their related parameters for four years: 1998, 2000, 2003 and 2008 identified using the data provided by the Advance Composition Explorer(ACE) spacecraft. IP shocks have a crucial role in space weather as they are responsible for the most effective particle acceleration in the solar corona and solar wind. These particles are hazardous for satellites and space-embedded technology. Thus, studying of IP shocks has received considerable attention in recent decades and to date various lists and databases have been developed and introduced to study IP shocks. This database provides an important opportunity to advance the understanding of IP shocks. In the future the database will be extended to have a comprehensive coverage of observations from the spacecraft that have been monitoring the solar wind (e.g. Wind, ACE, STEREO) it brings users a new system for quick analysis of IP shock properties. One can filter IP shocks from the database by date and several key shock parameters, e.g., shock type, magnetosonic speed, etc. This thesis will introduce theory behind IP shocks, the structure of the database and how IP shock candidates were selected. In addition, a statical analysis of ACE IP shocks for 1998, 2000, 2003 and 2008 are performed.
  • Palmerio, Erika (Helsingfors universitet, 2015)
    Coronal Mass Ejections (CMEs) often travel in the interplanetary space faster than the ambient solar wind. When their relative velocities exceed the local magnetosonic speed, a shock wave forms. The region between the shock front and the leading edge is known as a sheath region. Sheaths are compressed regions characterized by turbulent magnetic field and plasma properties and they can cause significant space weather disturbances. Within the sheath region, it is possible to find fine structures such as planar magnetic structures (PMSs). The magnetic field vectors in a PMS are characterized by abrupt changes in direction and magnitude, but they all remain for a time interval of several hours nearly parallel to a single plane that includes the interplanetary magnetic field (IMF) spiral direction. PMSs have been associated to several regions and phenomena in the heliosphere, but many of them occur in CME sheath regions. This suggests that CMEs play a central role in the formation of PMSs, probably by provoking the amplification and the alignment of pre-existing discontinuities by compression of the solar wind at the CME-driven shock or because of the draping of the magnetic field lines around the CME ejecta. The presence of PMSs in sheath regions, moreover, suggests that PMSs themselves can be related to space weather effects at Earth, therefore a comprehensive study of PMS formation and structure might lead to a better knowledge of the geoeffectiveness of CMEs. This work presents the study of PMSs in the sheath region of CMEs with a magnetic cloud (MC) structure for a sample of events observed in situ by the ACE and WIND spacecraft between 1997 and 2013. The presence of fine structures is evaluated through the minimum variance analysis (MVA) method, needed for determining the normal vector to the PMS-plane. Then, the position of each PMS within its corresponding sheath region is determined and the encountered cases are divided into different groups. Eventually, a number of shock, sheath and MC properties is evaluated for each group, aiming to perform a statistical analysis. The conclusions are that PMSs are observed in 80% of the studied sheath events and their average duration is ∼5 hours. PMSs tend to form in certain locations within the sheath: they are generally observed close to the CME-driven shock, close to the MC leading edge or they span the whole sheath. PMSs observed near the shock can be associated to strong shocks, while PMSs located near the MC leading edge can be related to high density regions and, therefore, to compression.
  • Vesterinen, Henrik (Helsingfors universitet, 2012)
    Astrobiology is an interdisciplinary research field which studies the origin of life. One of the great challenges of modern observational astronomy in this area is to find building blocks of life in interstellar molecular clouds. These so-called biomolecules are under study in this thesis. First I present some fundamentals of radio spectroscopy and molecular structure. Then emphasis is put on observations made with the SEST- and APEX-telescopes of the objects NGC 6334F and IRAS 16293-2422. These objects represent the so-called hot cores. They are concentrations of gas and dust inside a molecular cloud where a new star is being born. One of the objectives in studying these hot sources is to find glycine NH2CH2COOH. Glycine is the most simple amino acid which means it is also a building block of our DNA. It has been hypothesised that several reaction chains may lead to glycine, either in gas phase or solid phase. Molecules that are part of the reaction chains that lead to glycine, are called precursors. Possible precursos of glycine are, for example, acetic acid and formic acid. The objective of this thesis is to find some of these precursors or their isomers. I have endeavoured to identify all molecular lines in the observed rotation spectra. This is done with the GILDAS/CLASS software package and specifically with its new Weeds extension. This has required estimation of the column density and then modifying its value until Weeds' model fits the observations. A lot of organic molecules were found. Glycine was not found and of its precursors only formic acid and methyl formate were found. However, the most interesting result was the detection of aminoethanol (NH2CH2CH2OH), which is a precursor of amino acid alanine (CH3NH2CHCOOH). Although this is only a tentative detection, it justifies a thorough investigation of future observations. Many of the observed spectral lines are blended so better resolution is needed. Many lines are also weak and are lost amid all the noise. The new ALMA interferometer will prove to be an invaluable tool in searching for new biomolecules. ALMA has very high angular and spectral resolution, high sensitivity, and large bandwidth. These properties are needed if we are to confirm or refute this new detection of aminoethanol.
  • Palmgren, Elina (Helsingfors universitet, 2015)
    The phase of accelerating expansion of the early universe is called cosmological inflation. It is believed that the acceleration was driven by a scalar field called the inflaton, which in the simplest inflationary models was slowly rolling down its potential (slow-roll inflation). As an extension of these simple models, in this work we study a model in which the rolling of the inflaton field was fast (fast-roll inflation). From the inflationary phase we can detect density fluctuations which are usually thought to be created from quantum fluctuations of the inflaton field. In the case of the fast-rolling inflaton field, the evolution of the perturbations may differ significantly from the simpler slow-roll models. In addition to the inflaton, there might have also been other quantum fields in the early universe acting on the perturbation evolution. In this work, we study a case in which the perturbations are partly created from the inflaton field fluctuations and partly from another scalar field named the curvaton. This kind of scenario is called the mixed model. In the investigation of the early universe, it is essential to be able to estimate to what extent the observed perturbations tell us directly of the inflaton dynamics – and not of other phenomena. From the inflationary model-building point of view, freeing the inflaton from often somewhat unnatural observational constraints gives us new possibilities to develop more plausible models of inflation. In this thesis, we introduce briefly the simplest inflation and curvaton models and study analytically the perturbation evolution in the mixed model and fast-roll inflation. The research part of the thesis contains a numerical investigation of the perturbation evolution, as well as the inflaton and curvaton dynamics, in these models.
  • Ruuth, Riikka (Helsingfors universitet, 2015)
    Electrical breakdowns occasionally occur near the first walls of fusion reactor chambers and the accelerating cavities of linear colliders, such as CLIC. These arcing events are localised plasma discharges, which are formed under high voltage electrical fields. Vacuum arcs cause various surface damage on the fusion reactor and linear accelerator structures. The surface damage, most significantly craters, have been studied experimentally, but the mechanism of the formation of this damage is still not clear. In this thesis we use the large-scale molecular dynamics simulations to study crater formation on Cu surface. We used ion irradiation to model the arcing events, where plasma ions are accelerated via the shield potential towards the metal surface. This ion irradiation causes multiple overlapping cascades in Cu surface, what can lead to the crater formation. The main goal was to be able to produce surface damage, which is identical to experimental results. Our results are divided to three categories. First we examined which are initial conditions needed to form experimental like craters. The electric field emission current accompanying the plasma discharge process, most likely, is to heat the sample locally to very high temperatures. Therefore we tested molten and solid structures at different temperatures, as well as different scenarios of cooling of the sample via electronic heat conduction. Second, we examined how different variables, such as the fluence of the ions, the energy flux or the potential model, affect on the crater shape. These results were compared with the experimental crater profiles in order to find out reasonable values. We also analysed how the volume of the produced crater depends on fluence. Our third part of investigation was not actually concentrated on the surface damage, but on dislocations and other damage under the surface. We again studied how different parameters affect on the results. We compared the simulations by calculating the number and ratio of non-FCC atoms in the bulk. The fluence dependency of the defects was studied as well.

View more