Browsing by Subject "tieteenfilosofia"

Sort by: Order: Results:

Now showing items 1-16 of 16
  • Frantsi, Valtteri (Helsingin yliopisto, 2020)
    The Nobel Prize in Economic Sciences in 2019 was awarded to Banerjee, Duflo, and Kremer for their fight against poverty, as well as for their methodological contributions to development economics. This thesis discusses their methodological approach, the use of randomized field experiments (RFE) in policymaking, which according to the advocates of the evidence-based policy (EBP), provide better and more objective evidence. This claim will be examined, and rejected, in the light of the methodological literature of field experiments in economics and a case study of the Finnish Basic Income Experiment (BIE Finland). It will be argued that EBP’s view on RFE’s objectivity is rooted on the narrow view of mechanical objectivity, which overemphasizes methodological norms, such as randomization. This hinders various value choices regarding the research process and ignores the fact that the quality and nature of the evidence can change in the process. Co-creation of the scientific methods and interaction of the science and policy, thus, challenge EBP to reconsider their normative guidelines. This thesis examines BIE Finland and demonstrates how ethical values can become as constitutive values of the research via decisions over (i) the experimental design and (ii) theoretical content, and via (iii) interpretation of the results. It will be argued that these three routes present epistemic risks, but also opportunities to increase the relevance and validity of the research. Ultimately these routes show how scientists are troubled by uncertainty and the risk of error, providing also an avenue for subjectivity. While these routes show complex trade-offs between epistemic and non-epistemic values, their implications for the objectivity of the research are also not clear. This is not only because, as will be illustrated with BIE Finland, RFE’s are compatible with various epistemic aims and inferences that are not always clear, but also because the consequences of inductive risk for the normative guidelines and evidential standards is neither obvious. It will be argued that EBP should clarify the constituents of the trained judgment and the role of epistemic and non-epistemic values throughout the research process, because it ultimately shows how researchers are troubled with uncertainty and the risk of error. This requires them to abandon the value-free ideal and move beyond narrow mechanical objectivity in order to address the epistemic risks and potential disappointment associated with the evidence-based policymaking.
  • Economics 
    Mäki, Uskali (Routledge, 2008)
    Routledge philosophy companions
  • Raerinne, Jani Petteri (2003)
    Tarkastelen tutkielmassani erityistieteiden lakiyleistyksiä, jotka tekee ongelmallisiksi se, että niillä on poikkeuksia. Tavallisin tieteenfilosofian tapa reagoida erityistieteiden lakiyleistyksien poikkeuksiin on rakentaa nämä ceteris paribus -lakeina liittämällä lakiyleistyksiin ceteris paribus -ehtolause. Tämän ceteris paribus -ehtolauseen tehtävänä on sekä suojella näin muodostuvia ceteris paribus -lakeja niiden poikkeuksilta siten, että ko. laki pätee ceteris paribus (”joidenkin muiden asioiden ollessa poissa, samalla lailla ja/ tai normaalisti”) että sallia näille ceteris paribus -laeille poikkeuksettomien lakien funktiot: selittäminen, ennustaminen, tuki kontrafaktuaaleille jne. Ceteris paribus -lakien ongelma on, että ei ole olemassa filosofisista näkemystä itse ceteris paribus -ehtolauseen merkityksestä, totuusehdoista tai sisällöstä, jolloin mikä tahansa voi toimia tällaisena ehtolauseena. Ja tämä ei vaikuta mielekkäältä, koska esim. biologian lait pätevät tällöin, ”paitsi jos X”; missä X:n paikalle voidaan lisätä mitä tahansa, mikä ei sitten väitteen mukaan ollut poissa, samalla lailla ja/ tai normaalisti. Eivätkä vain lait, vaan kaikki mielivaltaisetkin yleistykset voidaan suojata näillä epämääräisillä ceteris paribus -ehtolauseille, jolloin mikään ei falsifioi myöskään näitä jälkimmäisiä. Tarkastelen tutkielmassani useita ceteris paribus -ehtolauseen eksplikointiyrityksiä ja argumentoin, että ne ovat kaikki epäonnistumisia. Pyrin myös osoittamaan, että fysiikan lait eivät ole lakeja, joilla on poikkeuksia ja jotka täten pitäisi kvalifioida ceteris paribus -ehtolauseilla. Tarjoan tutkielmani viimeisessä luvussa ratkaisun alkuperäiseen erityistieteiden lakiyleistyksien poikkeuksien ongelmaan. Ratkaisu on kuitenkin, että hylkäämme erityistieteiden yleistyksien konstruoinnin ceteris paribus -lakeina ja otamme erityistieteiden yleistykset sellaisenaan – pelkkinä yleistyksinä. Tarkastelemme sitten näiden yleistyksien stabiiliusominaisuutta – niiden invarianssia, ja rakennamme ”lakien” funktiot invarianteista yleistyksistä ilman ceteris paribus -lakeja tai ylipäätään lainomaisia yleistyksiä. Tutkielmani tärkein johtopäätös on, että ei ole olemassa motivaatiota tai tarvetta erityistieteissä ceteris paribus -laeille ainakaan kolmesta syystä. Ensinnäkin, fysiikan lait ovat poikkeuksettomia lakeja. Lisäksi meille on tällaisille poikkeuksettomille laeille olemassa filosofisia näkemyksiä siitä, mitä nämä lait ovat ja miten ne toimivat kuten lakien odotetaan toimivan. Toiseksi, ei ole olemassa filosofista näkemystä siitä, mitä ceteris paribus -lait ovat tai näkemystä siitä, miten nämä lait toimisivat kuten oletamme lakien toimivan. Kolmanneksi, on kuitenkin näkemys siitä, miten erityistieteen invariantit yleistykset toimivat, kuten oletamme lakienkin toimivan.
  • Raerinne, Jani (Helsingin yliopisto, 2011)
    The question at issue in this dissertation is the epistemic role played by ecological generalizations and models. I investigate and analyze such properties of generalizations as lawlikeness, invariance, and stability, and I ask which of these properties are relevant in the context of scientific explanations. I will claim that there are generalizable and reliable causal explanations in ecology by generalizations, which are invariant and stable. An invariant generalization continues to hold or be valid under a special change called an intervention that changes the value of its variables. Whether a generalization remains invariant during its interventions is the criterion that determines whether it is explanatory. A generalization can be invariant and explanatory regardless of its lawlike status. Stability deals with a generality that has to do with holding of a generalization in possible background conditions. The more stable a generalization, the less dependent it is on background conditions to remain true. Although it is invariance rather than stability of generalizations that furnishes us with explanatory generalizations, there is an important function that stability has in this context of explanations, namely, stability furnishes us with extrapolability and reliability of scientific explanations. I also discuss non-empirical investigations of models that I call robustness and sensitivity analyses. I call sensitivity analyses investigations in which one model is studied with regard to its stability conditions by making changes and variations to the values of the model s parameters. As a general definition of robustness analyses I propose investigations of variations in modeling assumptions of different models of the same phenomenon in which the focus is on whether they produce similar or convergent results or not. Robustness and sensitivity analyses are powerful tools for studying the conditions and assumptions where models break down and they are especially powerful in pointing out reasons as to why they do this. They show which conditions or assumptions the results of models depend on. Key words: ecology, generalizations, invariance, lawlikeness, philosophy of science, robustness, explanation, models, stability
  • Hietanen, Johan (Helsingin yliopisto, 2020)
    Kvanttimekaniikan filosofia ja etenkin keskustelu kvanttimekaniikan tulkinnoista ovat säilyttäneet pääpiirteiset erimielisyytensä kvanttiteorian alkuajoista asti nykypäivään. Tässä tutkielmassa täsmennetään kiistan ydinkysymyksiä ja etsitään mahdollisuuksia vastata niihin analysoimalla tulkinnan käsitettä. Kysymysten kehystämiseksi esitellään kaksi perinteistä tulkintaa kvanttiteoriasta, Kööpenhaminan tulkinta ja de Broglien-Bohmin tulkinta. Metodologisena valintana tulkintoja käsitellään rajatusti tulkintoina kvanttiteoriasta, ei erillisinä teorioina. Kööpenhaminan tulkintaa käsitellään kvanttiteorian perusmateriaalin sekä tulkinnan 1930-luvun oleellisimpien kirjoittajien, Werner Heisenbergin ja Niels Bohrin teosten avulla. Kööpenhaminan tulkinnan argumentoidaan olevan kvanttiteorian tulkintaa vain triviaalissa mielessä. Sen teoreettinen sisältö eroaa häviävän vähän itse kvanttiteoriasta ja sen rajat ylittävän spekulaation hylkäämisestä. De Broglien-Bohmin tulkinta esitellään Louis de Broglien pilottiaaltoteorian ja myöhemmän David Bohmin ontologisen tulkinnan kautta. Tulkinta formuloi teorian matemaattisen ytimen vaihtoehtoisella tavalla – käyttämällä aaltofunktion polaarista muotoa niin sanotun kvantti-Hamilton-Jacobin johtamiseksi Schrödingerin yhtälöstä, mikä mahdollistaa kvanttiteorian standardimuotoilusta poikkeavien termien eristämisen. Tulkinta säilyttää kvanttiteorian empiiriset ennusteet tuottavan rakenteen. Kahden eri tulkinnan kannattajien välisen kiistan täsmennetään syntyvän epäselvyydestä ja erimielisyydestä tulkinnan arvioinnin standardeista, kuten yksinkertaisuudesta, kuvausvoimasta tai periaatteellisista mahdollisuuksista muodostaa uusia tutkimushypoteeseja. Kiistan ratkaisemiseksi tutkielmassa edetään purkamaan itse tulkinnan käsite. Sen käyttöä tutkitaan fysiikan mallikeskustelun, semanttisen logiikan ja matemaattisen malliteorian yhteyksissä. Tutkielmassa päädytään esittämään ehdotus käsitteen ”tulkinta” reunaehdoille: tulkinta tarkoittaa teorian soveltamista haluttuun yksittäistilanteeseen. Tulkinta kvanttiteoriasta voi siis olla oikea tai väärä, minkä määrittää soveltamisen onnistuminen. Reunaehtoihin sisällytetään yksittäisten mallikomponenttien arviointi, mikä mahdollistaa vaihtoehtoisten matemaattisten muotoilujen sisältämien termien arvioinnin kvanttiteorian soveltamisen yhteydessä. Koska tulkintoja käsitellään tutkielmassa yksinomaan kvanttiteorian tulkintoina, päädytään johtopäätökseen, että tulkintojen on jaettava kvanttiteorian rakenteelliset rajoitteet. Nämä rajoitteet ymmärretään tätä nykyä hyvin viimeistään von Neumannin ja Kochenin-Speckerin teoreemien myötä. Lisäksi tutkielmassa asetetut reunaehdot kvanttiteorian tulkinnalle ovat hyvin tiukat. Tämän takia vaihtoehtoja tavanomaiselle ymmärrykselle siitä, mitä kvanttiteoria sanoo todellisuudesta, on syytä tarkastella laajemmassa viitekehyksessä.
  • Louhiala, Pekka; Hemilä, Harri (2005)
    Kiitämme Janne Kurkea mielenkiinnosta artikkeliamme kohtaan ja kommentoimme joitakin hänen huomautuksiansa. Kurki ei kiistä pääväitteitämme vaan kiinnittää lähinnä huomioita eräiden käsitteiden käyttöön ja toivoo syvällisempää pohdiskelua, joka ammentaisi nykyfilosofian klassikoista. ...
  • Haapakoski, Jukka (2008)
    Applied general equilibrium models are used for analyzing the costs and benefits of trade liberalization for developing countries. From the basis of Lakatosian Scientific Research Programmes analysis, applied general equilibrium models can be seen to belong to a unified neo-Walrasian general equilibrium framework. In this master’s thesis I appraise the methodology, hard core assumptions and certain auxiliary hypothesis of this framework. I critically discuss the consistency of the hard core assumptions made and the realism of these assumptions as opposed to competing explanations of economic reality. In this discussion I will attempt to give a picture of what kind of an economic world is being discussed according to the standard hard core assumptions. I will also give an account of how the arising issues are depicted in the Global Trade Analysis Project (GTAP), which is based on the neo-Walrasian GE framework, and generally assess whether these frameworks are able to account for the costs and benefits of trade liberalization in developing countries. I conclude that the neo-Walrasian general equilibrium framework is not yet adequate enough to function as a framework for applied general equilibrium models especially when estimating the gains and losses of trade for developing countries. The analysis of the GTAP framework additionally fits this conclusion as even stronger assumptions about economic reality need to be made in order to apply the neo-Walrasian general equilibrium framework for analyzing real world economic issues. The principal problem in the neo-Walrasian general equilibrium framework is the assumption that economies should be analyzed with respect to general equilibrium states. Among the many issues arising here, not adequate enough reasons have been given to avoid the problems of hysterisis and path dependence. There can be a variety of different and unpredictable equilibrium states that will result just due to these problems. The neo-Walrasian GE framework is also unable to account for the dynamic effects that income redistribution has on agents’ preferences and the resulting outcomes for production and consumption. The framework cannot assess the effects of oligopoly without making stronger more unrealistic assumptions and additionally requiring high amounts of data. The standard trade models do not assess the environmental impacts of trade, which analytically challenge the stability of equilibrium and lead to neglecting the potentially hazardous effects of local and global environmental impacts. Finally the maximization assumptions for both supply and demand have been criticized from various angles. The upshot is that the assumptions based on maximization behaviour cannot adequately describe how consumers make choices and achieve welfare, while the factor pricing theory for production cannot be an adequate description of how firms maximize profits. These results are based on summarizing various sources and come with some qualifications.
  • Lindberg, Jari (2006)
    Päättelyssä parhaaseen selitykseen eli abduktiossa yhdistyvät nimensä mukaisesti kaksi tieteenfilosofian ongelmakenttää nimittäin tieteellinen päättely ja selittäminen. Abduktio voidaan ymmärtää tietyntyyppisenä induktiivisena päättelynä, jolle on ominaista se, että päättelyä ohjaavat selitykselliset tekijät. Peter Liptonin (2004) teoria päättelystä parhaaseen selitykseen on yksi systemaattisimpia esityksiä abduktiivisesta päättelystä. Liptonin teoria perustuu erotteluun todennäköisimmän ja suloisimman selityksen välillä. Abduktio tulee Liptonin mukaan ymmärtää juuri päättelyksi suloisimpaan selitykseen. Liptonin keskeinen teesi kuitenkin on, että selityksen suloisuus kytkeytyy selityksen todennäköisyyteen. Viimeaikaisessa tutkimuksessa on noussut keskeiseksi kysymys abduktion suhteesta bayesiläisyyteen (Salmon 2001a, 2001b; Lipton 2001a, 2001b; Niiniluoto 1999; Okasha 2000; Psillos 2004). Bayesiläisyys nähdään usein normatiivisena teoriana tieteellisestä päättelystä (Howson ja Urbach 1996, Earman 1992). On esitetty, että abduktio olisi ristiriidassa bayesiläisyyden kanssa (van Fraassen 1989). Toisaalta on pyritty argumentoimaan, että abduktio ja bayesiläisyys ovat yhteensopivia. Lipton (2004) menee kuitenkin tästä vielä askeleen pidemmälle esittäen, että abduktio ja bayesiläisyys itse asiassa täydentävät toisiaan. Tässä tutkimuksessa pyrin selventämään Liptonin teorian ja bayesiläisyyden suhdetta toisiinsa tarkastelemalla, kuinka abduktion selitykselliset tekijät voitaisiin ristiriidattomalla tavalla liittää osaksi bayesiläistä formalismia. Pyrin täsmentämään Liptonin tekemää erottelua suloisimman ja todennäköisimmän selityksen välillä ja analysoin kriittisesti Liptonin väitettä siitä, että selityksen suloisuus voi toimia oppaanamme arvioidessamme selityksen todennäköisyyttä. Suloisimman ja todennäköisimmän selityksen välinen ero on keskeinen, kun tarkastelen, kuinka abduktio voitaisiin kytkeä bayesiläisyyteen, joka perustuu puhtaasti todennäköisyyslaskentaan. Esitän, että selityksen suloisuus ei kytkeydy sellaisenaan mihinkään yksittäiseen tekijään bayesiläisessä viitekehyksessä. Pyrin tutkielmassani osoittamaan, että abduktiolla on tärkeä rooli hypoteesien keksimisessä ja potentiaalisten hypoteesien karsimisessa, joista bayesiläisyys vaikenee täysin. Tällä abduktion roolilla voidaan myös nähdä olevan tietynlainen normatiivinen luonne, sillä se karsii huonot selitykset pois tarkasteltavien hypoteesien joukosta. Toisaalta esitän, että se mikä on hyvä tai huono selitys, on loppujen lopuksi empiirinen kysymys, joka ratkaistaan hypoteeseja testaamalla. Bayesiläisyys pitää myös sisällään monia puutteita, jotka asettavat kyseenalaiseksi sen toimivuuden teoriana hypoteesien testaamisesta. Abduktio näyttäisikin antavan paremman kuvauksen tavasta, jolla tiedemiehet arvioivat evidenssiä ja sen merkittävyyttä, kuin bayesiläisyys, jossa hypoteesin konfirmaation ja evidenssin välillä vallitsee puhtaasti looginen suhde. Selityksellisillä tekijöillä näyttäisi siis olevan paikkansa paitsi hypoteesien keksimisessä myös arvioitaessa evidenssin antamaa tukea hypoteesille. Lähteet: Earman, John (1992): Bayes or Bust? A Critical Examination of Bayesian Confirmation Theory. MIT Press, Cambridge, USA. Howson, Colin ja Urbach, Peter (1996): Scientific Reasoning: The Bayesian Approach, 2. painos. Open Court, La Salle, Illinois. Lipton, Peter (2001a): ”What Good Is An Explanation?”. Teoksessa Hon, Giora ja Rakover, Sam. S. (toim.) (2001): Explanation: Theoretical Approaches and Applications. Kluwer, Dordrecht, 43-59. Lipton, Peter (2001b): ”Is Explanation A Guide to Inference? A Reply to Wesley C. Salmon”. Teoksessa Hon, Giora ja Rakover, Sam. S. (toim.) (2001): Explanation: Theoretical Approaches and Applications. Kluwer, Dordrecht, 93-120. Lipton, Peter (2004): Inference to the Best Explanation (2. Painos). Routledge, Lontoo. Niiniluoto, Ilkka (1999): ”Defending Abduction”. Philosophy of Science 66, S436-S451. Okasha, Samir (2000): ”Van Fraassen’s Critique of Inference to the Best Explanation”. Studies in History and Philosophy of Science 31, 691-710. Psillos, Stathis (2004): ”Inference to the Best Explanation and Bayesianism”. National and Kapodistrian University of Athens, http://www.phs.uoa.gr/~psillos/Publications_files/IVC-Psillos.doc (5.11.2006). van Fraassen, Bas C. (1989): Laws and Symmetry. Oxford University Press, New York. Salmon, Wesley C. (2001a): ”Explanation and Confirmation: A Bayesian Critique of Inference to the Best Explanation”. Teoksessa Hon, Giora ja Rakover, Sam. S. (toim.) (2001): Explanation: Theoretical Approaches and Applications. Kluwer, Dordrecht, 61-91. Salmon, Wesley C. (2001b): ”Reflections of a Bashful Bayesian: A Reply to Peter Lipton”. Teoksessa Hon, Giora ja Rakover, Sam. S. (toim.) (2001): Explanation: Theoretical Approaches and Applications. Kluwer, Dordrecht, 121-136.
  • Komulainen, Mikko (Helsingfors universitet, 2017)
    Tämän pro gradu -tutkielman aihepiiri liittyy tieteenfilosofian, metafysiikan, tietoteorian ja filosofian historian aloille. Tutkielmassa haetaan vastausta laajaan kysymykseen, mikä on klassisen pragmatismin rooli modernissa tieteenfilosofiassa. Kyseessä on tapaustutkimus, ja sen päätutkimuskohteeksi on valittu John Deweyn pragmatismin vaikutus Philip Kitcherin realismiin. Aiheen käsittely on rajattu realismin ongelmaan, jota analysoidaan common sense -realismin, tieteellisen realismin, instrumentalismin ja tieteellisen anti-realismin näkökulmista. Päälähteinä tässä ovat Michael Devitt, Ilkka Niiniluoto ja Bas van Fraassen. Analyysi palautetaan useissa kohdissa traditionaalisen realismin mukaiseen tulkintaan, jossa tehdään olettamus mielestä riippumattomasti olemassaolevasta maailmasta. Analyysissä käytetään jakoa havaittaviin (observable) ja ei-havaittaviin (non- observable) entiteetteihin. Työn näkökulma on metafilosofinen ja tarkastelun näkökulma on yleistä filosofiaa. Tutkielma jakautuu kahteen osa-alueeseen: Ensimmäinen osuus (luvut 2–3) on teoria- ja metodiosuus, jossa tutkitaan realismin käsitettä, sen yleisiä tunnuspiirteitä ja muotoja sekä realismin suhdetta anti-realismiin. Lähestymistapa realismin ongelmaan on pragmaattinen. Pragmatistinen viitekehys muodostetaan Deweyn pragmatismin pohjalle. Deweyn pragmatismia pyritään tulkitsemaan pääsääntöisesti realistisessa viitekehyksessä. Tulkinnassa käytetään apuna erityisesti instrumentalismin käsitettä, jonka avulla havainnollistetaan muun muassa Deweyn tieteenfilosofista asennetta ja suhtautumista ei-havaittaviin entiteetteihin. Työn toisessa osuudessa (luku 4) analysoidaan Philip Kitcherin realismi-tulkinnan muodostamisprosessia, joka voidaan myös palauttaa yleisempään realismi–anti-realismi -keskusteluun. Kitcher argumentoi realismi-tulkintansa puolesta muun muassa onnistumisen päättelysäännöllä (success to truth -rule). Kitcher esittää realismin ongelmaan ratkaisuksi niin kutsuttua Galilein strategiaa, jonka naturalistisena tavoitteena on sitoa yhteen luonnollinen ontologinen ja -epistemologinen asenne. Tässä kohtaa analysoidaan Arthur Finen näkökulmaa. Kitcher perustelee todellisen realismin (Real Realism) tulkintaansa niin IRAn (Inaccessibility of Reality Argument), kuin myös IBEn (Inference to the Best Explanation) -argumentaatioden analyysillä. Työn toisessa osuudessa pohditaan Kitcherin realismi-tulkinnan taustalla mahdollisesti vaikuttavaa Deweyn pragmatismia. Tutkimustulosten mukaan Kitcherin realismi-tulkinta sallii pragmatismin läsnäolon. Kitcheriä voidaan tietyssä mielessä tulkita deweyläiseksi pragmatistiksi, vaikka pragmatismin rooli ei johtopäätösten mukaan ole Kitcherin realismi-tulkinnan määräävin ominaisuus. Pragmatismi tulkitaan lopulta filosofiseksi hyveeksi, jollaisena sillä on todennäköisesti painoarvoa myös analyyttisen filosofian tutkimuksen piirissä. Ongelmallisiksi tässä tutkielmassa ovat ilmenneet terminologiset haasteet, kuten Deweyn käsitteistön ja modernin tieteenfilosofian piirissä käytetyn käsitteistön yhteensovittaminen. Moderni tieteenfilosofinen keskustelu edellyttää yksityiskohtaisempaa käsitteistöä, kuin mitä Deweyn yleisluontoinen lähestymistapa aineiston pohjalta tarjoaa. Tutkimustulosten luotettavuus edellyttää laajempia jatkotutkimuksia ja syvällisempää perehtymistä käytettyyn aineistoon.
  • Mäki, Uskali (Oxford University Press, 2009)
  • Tulkki, Leena (Helsingin yliopisto, 2018)
    Nykyisin tutkimusta etenkin monilla luonnontieteellisillä aloilla voidaan luonnehtia teknotieteelliseksi. Tällä viitataan dynamiikkaan, jossa erilaiset teknologiat ovat tärkeässä roolissa tutkimuksen mahdollistajina ja toisaalta näin saatu tutkimustieto ruokkii uusien teknologioiden kehitystä. Toinen, monesti teknotieteellisiin aloihin linkittyvä, nykytieteen jo pidempään jatkunut kehityssuunta on tutkimuksessa kerätyn datan merkityksen korostuminen. Laajoihin tietokantoihin kertyvää dataa yhdistellään, muokataan ja analysoidaan irrallaan siitä kontekstista, jossa se on alun perin kerätty. Tieteellisen tiedonmuodostuksen kollektiivinen luonne on datakeskeisessä teknotieteessä erityisen selvä asia. Tutkijoiden ja tutkimusryhmien välinen yhteistyö on edellytys sille, että laajoja tietokantoja voidaan muodostaa. Toisaalta tämän kollektiivisen yhteistyön koordinointi on sitä haastavampaa, mitä moninaisempia teknologisia ratkaisuja tutkimustyössä käytetään ja mitä erikoistuneempia tutkimusasetelmat ovat. Jotta tutkimustuloksia voidaan vertailla toisiinsa ja jotta niistä voidaan muodostaa laajempia kokonaisuuksia, niiden on oltava jollain tavalla vertailukelpoisia ja yhteen sovitettavissa. Tieteenfilosofisessa kirjallisuudessa tämän kaltaista yhdenmukaisuutta on kutsuttu yhteismitallisuudeksi. Yhteismitallisuutta tarvitaan niin tutkimuksen käsitteellisellä tasolla kuin sen materiaalisissa käytännöissäkin. Tietynasteinen yhteismitallisuus on edellytys sille, että tutkimusyhteisön jäsenet ylipäätään voivat kriittisesti arvioida toistensa tuloksia. Interaktiivisen objektiivisuuskäsityksen valossa tutkimusyhteisön kollektiivinen kritiikki on avainasemassa tieteellisen tiedon luotettavuuden saavuttamisessa. Tässä työssä esitetään, että standardeilla on keskeinen rooli yhteismitallisuuden tuottamisessa ja sitä kautta myös tutkimustulosten kriittisen tarkastelun mahdollistamisessa. Standardit ovat tyypillisesti teknisiä dokumentteja, joissa määritellään esimerkiksi tutkimuksessa käytettävien instrumenttien tai materiaalien ominaisuuksia sekä erilaisten kokeellisten työprosessien kulkua. Tärkeä seuraus standardien käyttöönotosta on se, että niiden myötä alkaa rakentua monenlaisia materiaalisia ja tiedollisia infrastruktuureita, kuten materiaalipankkeja ja tietokantoja. Tällaiset infrastruktuurit toimivat alustana tieteelliselle tiedonmuodostukselle: niiden puitteissa voidaan tutkia tietynlaisia kysymyksiä, mutta samalla toisenlaisia tutkimusteemoja rajautuu pois. Näin standardeilla on yhtäältä tutkimustyötä mahdollistava ja toisaalta sitä rajoittava vaikutus. Tässä työssä standardien roolia teknotieteellisessä tutkimuksessa on tutkittu konkreettisen esimerkin avulla. Tapaustutkimuksessa tarkastellaan synteettisen biologian alan merkittävintä kansainvälistä opiskelijakilpailua (iGem-kilpailu). Sen puitteissa on testattu tietynlaisia standardoinnin malleja ja kehitetty niitä edelleen. Kilpailu rakentuu niin sanotun osaperustaisen biologisen insinöörityön idealle, jossa etenkin elektroniikan alalta otettu malli standardoiduista komponenteista pyritään ottamaan käyttöön myös geeniteknologisessa tutkimuksessa. Koska synteettinen biologia, toisin kuin elektroniikka, operoi elollisen materiaalin puitteissa, ja vieläpä sellaisten ilmiöiden parissa, joita tunnetaan vielä melko huonosti, on geneettisten komponenttien standardointi osoittautunut kuitenkin varsin haastavaksi. Tapaustutkimuksen valossa näyttääkin siltä, että varsinkin aloilla, joiden tutkimus on melko varhaisessa vaiheessa, voi olla vaikeaa hahmottaa, millaisia asioita kannattaisi säädellä standardien avulla ja miten nämä standardit kannattaisi muotoilla. Edelleen, mikäli alan tutkimukseen liittyvä teknologinen kehitys on nopeaa, tulee standardien kehittämisestä haastavaa, sillä standardit eivät pysy relevantteina kovin kauaa. Standardeja kuitenkin tarvitaan, ja niiden kehittäminen ja niihin liittyvien infrastruktuurien ylläpitäminen on olennaisessa roolissa teknotieteellisen tutkimuksen mahdollistajana. Koska standardeilla ja standardoinnilla on merkittäviä tiedollisia seurauksia, ne ovat tärkeä ja mielenkiintoinen tutkimuskohde sosiaalisen epistemologian ja tieteenfilosofian näkökulmasta.
  • Blanco Sequeiros, Sofia (Helsingin yliopisto, 2019)
    This thesis explores the problem of extrapolating causal claims in the social sciences, particularly economics. The problem of extrapolation is the problem of inferring something about a phenomenon of interest in one context, based on what is known about it in another. For example, we may want to infer that a medicine works in population $Y$, based on the fact that we know it works in population $X$. Extrapolation is the inferential process of generalizing or transporting claims about a phenomenon of interest to new populations or settings. The answers to the problem of extrapolation in philosophy of science aim to explain how successful extrapolation is possible, as there will always be relevant differences between the two systems. I study extrapolation from the viewpoint of philosophy of science, which aims to both analyze and complement science and scientific knowledge. I also use a case study with two examples to further illustrate the relationship between the theoretical approaches to extrapolation in philosophy of economics and actual studies in experimental economics. I focus on comparative process tracing, a general account of extrapolation developed by philosopher of science Daniel Steel, and its success in extrapolating causal claims from field experiments in economics. The first chapter introduces central concepts and key questions. The second chapter discusses external validity, a concept typically used in economics to describe the potential of causal claims to be extrapolated. The third chapter introduces comparative process tracing, which explains how and why extrapolation can be based on knowledge about causal mechanisms. Next, I discuss field experiments in economics and methodological issues of extrapolation particular to them. The fourth chapter consists of a case study, which shows the limitations of approaching extrapolation in economics with comparative process tracing. The last chapter concludes. The central conclusion of this thesis is that even though comparative process tracing is meant as an account of extrapolation that can explain and apply to extrapolation across disciplines, applying it to economics faces methodological challenges. Nevertheless, the issues it faces with regard to field experiments in economics do not refute it as an account of mechanistic extrapolation. I propose that comparative process tracing is a theoretically comprehensive epistemological account of extrapolation in the social sciences, but it must be complemented with a systematic methodological account of problems of extrapolation in practice. This methodological account complements and enhances epistemological analysis of extrapolation.
  • Karisto, Janne (Helsingin yliopisto, 2018)
    Tieteen rajoja arvioiva akateeminen tutkimus on muuttunut viimeisten vuosikymmenten aikana. Tutkielma osoittaa, että keinot tieteen erottamiseksi sen haastajista, kyseenalaistajista, matkijoista ja väärinkäyttäjistä uudistuivat erityisesti tieteenfilosofian naturalistisen käänteen yhteydessä. Tieteen ja näennäistieteen rajanveto-ongelman tutkimus oli pitkään yksi vaikutusvaltaisimmista tieteen rajoja arvioivista tutkimussuuntauksista. Rajanveto-ongelmaa tutkivien tieteenfilosofien tavoitteena oli löytää yleispätevä tieteen standardi ja muotoilla sen perusteella rajanvetokriteeri tai kriteerijoukko. Naturalismin valtavirtaistuttua 1970–80-luvuilla tieteenfilosofit alkoivat kuitenkin suhtautua uudella tavalla normatiiviseen tutkimukseen. Yhä useammat omaksuivat tieteen normatiivisuuden instrumentalistisen tulkinnan: normatiivisuus on riippuvaista kulloisenkin tiedonmuodostusprosessin lähtökohdista ja tavoitteista, joten myös tiedonmuodostuksen arvioinnin tulee olla tapauskohtaista. Tämä muutos johti siihen, että perinteinen rajanveto-ongelma ei enää kiinnostanut tieteenfilosofeja entiseen tapaan. Tieteenfilosofiassa ja tieteentutkimuksen eri aloilla on sittemmin ilmestynyt uusia normatiivisia tutkimussuuntauksia, joissa arvioidaan tieteen rajoja toisenlaisista näkökulmista kuin naturalistista käännettä edeltäneessä rajanveto-ongelman tutkimuksessa. Näissä suuntauksissa on arvioitu esimerkiksi sitä, miten aidot tieteelliset kiistat voitaisiin erottaa julkisuuteen luoduista näennäiskiistoista, ja sitä, miten erottaa tiedolliset asiantuntijat niistä, joiden näkemyksiin ei tulisi luottaa. Tutkielmassa esitellään viisi uutta suuntausta ja verrataan niitä perinteiseen rajanveto-ongelman tutkimukseen. Muutokset normatiivisen tieteenfilosofian lähtökohdissa ovat aiheuttaneet sen, että viimeaikainen tieteen rajoja arvioiva tutkimus on aiempaa monipuolisempaa, erikoistuneempaa, empiirisesti yksityiskohtaisempaa ja selvemmin yhteiskunnallisesti motivoitunutta. Tutkimuksen tavoite on kuitenkin pysynyt ennallaan: erottaa tiede sellaisista väitteistä ja tahoista, joita ei kannata ottaa tosissaan. Tässä pro gradu -tutkielmassa esitetään, että tieteenfilosofien tulee ottaa ahkerasti osaa tieteen rajoja arvioivaan tutkimukseen. Akateeminen kiinnostus tieteen rajankäyntejä kohtaan ei ole ainakaan vähenemässä, ja ilmastonmuutoksen kaltaisten uhkien vuoksi yhteiskunnallinen tarve niitä arvioivalle tutkimukselle saattaa olla jopa aiempaa polttavampi. Tieteen rajoja täytyy pystyä arvioimaan useasta eri näkökulmasta, koska niitä koettelevat haasteet vaihtuvat ja muuttavat muotoaan. Nykyisenlaisen akateemisen tutkimuksen työnjaon vallitessa tieteenfilosofeilla saattaa olla parhaat lähtökohdat tutkia tieteen rajoja monipuolisesti ja kokonaisvaltaisesti. Läheinen yhteistyö empiirisen tieteentutkimuksen kanssa on kuitenkin välttämätöntä.