Reilua koneoppimista: keskeisiä kysymyksiä algoritmisen päätöksenteon eettisyydestä

Heinäkuussa 2018 Tukholmassa pidettiin viides FATML-työpaja kansainvälisen koneoppimiskonferenssin yhteydessä. Kirjainyhdistelmä FATML tulee sanoista Fair (reilu), Accountable (vastuullinen), Transparent (läpinäkyvä) ja Machine Learning (koneoppiminen). Suomennettuna kyseessä on siis Reilu, Vastuullinen ja Läpinäkyvä Koneoppiminen (RVLK).

Tiivistän tässä artikkelissa työpajan keskeiset kysymykset.

Reiluus

Kuinka määritellä, mitata ja käsitteellistä koulutusdataa koneoppimismalleille?

Keskeisenä tavoitteena on suunnitella tiedonkeruumenetelmiä, jotka rajoittavat (mahdollisesti puolueellisten) ennustusten vaikutusta. Tutkija Juhani Luotolahden kanssa olemme aiemmin määritelleet, että ”hyvä koneoppiminen on reilua koneoppimista”. Tämä määritelmä liittyy koulutusdatan tasapainottamiseen (epätasapainoinen data on yksi keskeinen syy mallien mahdolliseen puolueellisuuteen).

Mitkä ovat mielekkäitä formaaleja oikeudenmukaisuuskriteerejä? Mitkä ovat niiden rajoitukset?

Klassinen vastaus, kun kysytään ”Onko koneelle mahdollista opettaa moraalia?” on: Kyllä, jos osaat määritellä moraalin matemaattisesti. Sanana koneoppiminen on harhaanjohtava, koska ihmiset mieltävät koneen oppimisen samanlaiseksi kuin ihmisten oppimisen, johon liittyy abstraktioiden, käsitteiden ja sosiaalisten suhteiden mieltämistä. Kone ei opi mitään tällaista, vaan se ainoastaan ratkaisee matemaattisia kaavoja.

Kone ei ole älykäs eikä se opi, vaan se laskee tehokkaammin kuin ihminen. Tällöin moraalin ratkaisemiseksi ongelma pitää asettaa matemaattiseen muotoon. Koska tässä ei vielä ainakaan toistaiseksi ole onnistuttu, toiseksi paras ratkaisu on rajoittaa koneen päätöksentekovaltaa — kriittisissä päätöksissä ihmisen pitää niin sanotusti ”painaa nappia”, koska päätöksentekoon liittyvät abstraktiot ovat koneelle vieraita. Tekoäly on siis enemmänkin päätöksenteon tukijärjestelmä kuin itsenäinen päätöksentekijä.

Pitäisikö meidän johtaa oikeudenmukaisuuden määritelmät laista? Ovatko muodolliset oikeudenmukaisuuskriteerit yhteensopivia lain kanssa?

Kuten oikean ja väärän kanssa, koneella ei myöskään ole minkäänlaista ymmärrystä laittomasta tai laillisesta toiminnasta, ellei sitä erikseen ohjelmoida. Eri maiden oikeusjärjestelmät eroavat merkittävästi toisistaan, mikä vaikeuttaa yleismaailmallisen järjestelmän kehittämistä. Lähimpänä koneoppimista ovat kirjoitettujen lakien järjestelmät (eng. code law), jossa eri rikoksille on luotu suhteellisen tarkat määritelmät ja rangaistukset. Kuitenkin lakien soveltamiseen liittyy lähes aina keskeisenä osana tulkinta, ja on hankalaa kuvitella, että päätöksentekoa uskallettaisiin antaa koneelle.

Soveltaen aikaisempaa ajattelua päätöksentekojärjestelmästä, koneoppiminen voisi kuitenkin toimia oikeusjärjestelmän osana esimerkiksi niin, että se antaisi puolueettoman suosituksen koodatun todistusaineiston ja aikaisempien päätösten perusteella. Lakien soveltamisessa on havaittu puolueellisuutta, jota kone voisi paikata. Kuitenkin viime kädessä koneen päätöksentekoa ei voi pitää esimerkiksi rikoslain alaisena, sillä kone tai algoritmi ei ole oikeustoimikelpoinen. Sen sijaan oikeussubjektit, esimerkiksi algoritmeja kehittävät suuryritykset, ovat hyvinkin vastuussa teoistaan, ja niiden tuleekin kiinnittää huomiota algoritmisen päätöksenteon lainmukaisuuteen.

Kenen pitäisi päättää, mikä on oikeudenmukaista, jos oikeudenmukaisuus tulee koneoppimistavoitteeksi?

Etenkin nykyisessä sosiaalisen median ”toksisessa” eli vihamielisessä ympäristössä jokainen ryhmä kokee olevansa oikeassa. Kysymyksenä on silloin, voimmeko määritellä universaalisti pätevät oikeudenmukaisuuden kriteerit, vai omaksummeko arvorelativismin? Jälkimmäisessä tapauksessa oikeudenmukaisuuden soveltamisesta tulee haasteellisempaa, koska näkemykset siitä vaihtelevat. Toisaalta, mikäli löydämme päällekkäisyyttä eri arvokäsitysten välillä, sovellettavasta moraalikoodistosta saattaa tulla helpommin toteuttava.

Onko olemassa vaaraa oikeudenmukaisuuden alistamisessa laskennalliseksi ongelmaksi?

Aiemmin mainitsin haasteet moraalin eksaktissa määrittelyssä, mutta on myös aiheellista pohtia koko tavoitteen järjellisyyttä. Mikäli kuvittelemme määrittelevämme koneoppimisen eettiset säännöt täydellisesti, saattaa se johtaa algoritmien vallan merkittävään lisäykseen. Jos olimmekin väärässä, olemme nyt antaneet vallan toimijalle, joka noudattaa virheellistä kaavaa.

 

Vastuullisuus

Mitä ihmisen toteuttama arviointi sisältäisi, jos mallit olivat käytettävissä suoraan tarkastukseen?

Tämä kysymys koskee koneoppimisen auditointia reiluuden varalta. Ei ole lainkaan selvää, mitkä ovat tällaisen analyysin ohjenuoria. Aiemmin olen määritellyt Algoritmien valta -blogissa, että koneoppimisen reiluuteen liittyvät haasteet saattavat johtua joko (a) niiden kehittäjien puolueellisista valinnoista, (b) algoritmin eli matemaattisen kaavan mallista, tai (c) epätasapainoisesta datasta. Käyttäen näitä seikkoja perusperiaatteena koneoppimisen reiluuden auditointi varmasti sisältäisi algoritmin lähdekoodin arviointia, sen kehittäjän antaman eettisen lausunnon (”ethical statement”) läpikäynnin sekä algoritmin testiajon epätasapainoisella datalla, joka olisi synteettisesti tuotettu puolueellisuuksien paljastamiseksi. Toistaiseksi tällainen arviointi on vasta visio, sillä alalla ei ole vakiintuneita standardeja tai käytäntöjä sen toteuttamiseen.

Voimmeko todistaa, että algoritmi käyttäytyy jollakin tavalla ilman algoritmin paljastamista? Voimmeko saavuttaa vastuullisuutta ilman avoimuutta?

Nämä kysymykset ovat kriittisiä yritysten näkökulmasta. Yrityspuolen algoritmit ovat tyypillisesti liikesalaisuuksia, joita ei haluta paljastaa koko maailmalle. Niiden tekemien päätösten tai suositusten eettinen tarkastelu on kuitenkin tärkeää. Eräänä vaihtoehtona on luoda julkisia tai kolmannen sektorin toimijoita, jotka salassapitosopimuksia noudattaen auditoivat algoritmisia päätöksentekojärjestelmiä.

 

Läpinäkyvyys

Miten voimme kehittää tulkittavia koneen oppimismenetelmiä, jotka tarjoavat tapoja hallita mallin monimutkaisuutta ja/tai tuottaa mielekkäitä selityksiä?

Selitettävyys on yksi keskeinen tutkimuskohde algoritmisessa päätöksenteossa tällä hetkellä. Järjestelmiin yritetään luoda käyttöliittymiä, jotka tarjoavat lisätietoa esimerkiksi siitä, miksi kyseinen mainos on näytetty juuri tietylle käyttäjälle. Keskeistä näissä malleissa on käyttökokemus – tapa esittää selitykset käyttöä hankaloittamatta, pitämällä niiden yksinkertaisuus oikealla tasolla ja valitsemalla tietoa, joka vastaa käyttäjän informaatiotarpeisiin ovat osa-alueita, jotka vaihtelevat sovelluksittain ja täten vaativat empiiristä testaamista.

Voimmeko käyttää synteettista dataa oppiaksemme algoritmien sisäisestä toiminnasta? Voimmeko oppia tavoista, joilla ne epäonnistuvat reunatapauksissa?

Ensimmäinen kysymys liittyy standardiaineistojen luomiseen, joilla koneoppimismalleja voitaisiin testata. Käytännössä näitä ei juuri löydy, paria poikkeusta lukuunottamatta. Koska käytännössä muuttujat, eli koneoppimismallin piirteet, vaihtelevat sovellusalueittain, pitäisi olla työkalu, jonka avulla voitaisiin helposti luoda epätasapainoisia datasettejä algoritmien testaamiseen eri konteksteissa. Toinen kysymys liittyy mallien kouluttamiseen silloin, kun ne epäonnistuvat eli antavat epäreiluja suosituksia. Käytännössä pitäisi pystyä osoittamaan virheet syöttämällä uutta dataa vahvistetun oppimisen muodossa. Selkeä analogia tässä on tapa, jolla lapsi oppii oikean ja väärän: väärän tekemisestä seuraa rangaistus.

Kuinka voimme käyttää peliteoriaa ja koneen oppimista rakentaaksemme läpinäkyviä, mutta kestäviä malleja, joissa käytetään palkkioita ja kustannuksia toiminnan seurauksista?

Edellä mainitun vahvistetun oppimisen lisäksi rankaisun ja kannustinten vaikutusta on matemaattisesti mallinnettu peliteorian saralla jo vuosikymmeniä. Peliteoriassa agentit eli päätöksentekijät tekevät päätöksiä, joiden tulokset määrittävät strategisen optimin. Väärällä päätöksellä on siis kustannus. Tämä analogia toimii hyvin, koska myös koneoppimismallit toimivat minimoidakseen ”kustannuksen”, joka on tyypillisesti ennustuksiin liittyvä tarkkuusvirhe.

Kirjoittaja Joni Salminen työskentelee tutkijana Turun yliopistossa. Salmisen blogiteksti on julkaistu alun perin Algoritmien valta -sivustolla. Jutun kuva: Alexandre Debieve.


Kevään ja kesän 2018 apurahapäätökset

Opetuksen kehittäminen

Säätiö myönsi jatkorahoituksen 15.000 euroa Turun yliopistolle VIBu -tutkimus -ja koulutushankkeeseen. VIBu on verkkopohjainen liiketoimintaosaamiseen ja keskittyvä oppimisympäristö, joka perustuu simulaatiotyöskentelyyn.

PoDoCo-apurahat

Tohtoreita ja yrityksiä yhdistävä Post Docs in Companies -ohjelma tukee tohtorien työllistymistä elinkeinoelämän palvelukseen. Tohtoreiden myötä niin pienet kuin suuretkin suomalaisyritykset saavat tuoretta tutkimusosaamista innovaatioitaan vauhdittamaan. Kevään apurahahakukierroksella rahoitettiin 16 uutta tohtorien ja yritysten yhteistyöprojektia (tiedote).  KAUTE-säätiön PoDoCo-apuraha myönnettiin TkT Meri Lundahlille tutkimuseen: Korkean suorituskyvyn hiilikuitua puusta. Kohdeyrityksenä on Teraloop Oy.

Apurahat tutkimusvaihtoon

Säätiö myönsi Tutkijat maailmalle -ohjelmasta tutkimusvaihtoapurahoja yhteensä 105 000 euroa kuudelle väitöskirjantekijälle. Lisäksi Merkkipäivärahaston ja Ulkomaankaupan erikoisrahastoista myönnettiin matka-apurahoja tutkimus- ja opiskelijavaihtoon 15 000 euroa. Kaikki myönnetyt Tutkijat maailmalle apurahat löytyvät ohjelman sivuilla.

 

Arvo Apurahansaaja Käyttötarkoitus Vierailukohde Myönnetty (€)
KTM Helin Suvi-Tuuli Talvikki Tutkijat maailmalle: Kuinka epävarmuus siirtyy organisaatossa hierarkiatasolta toiseen? Kognitiivisen epävarmuuden vuorovaikutus organisaatiossa ja sydämen sykevälivaihtelu –menetelmä sen tutkimisessa Stanford University, USA 15 000
DI Jantunen Petri Miikka Tutkijat maailmalle: Universaali itseoppiva ohjausmenetelmä taloteknisille järjestelmille Lawrence Berkeley National Laboratory, UC Berkeley, USA 6 000
M.Sc. Palacin Silva Maria Victoria Tutkijat maailmalle: Understanding Civics Motivation and Engagement in Environmental Sensing:  A Values Driven Approach MIT Media Lab, USA 15 000
DI Peltokorpi Jaakko Juhana Tutkijat maailmalle: Työntekijöiden oppiminen vaihtelevassa kokoonpanotuotannossa: malleja tuotannon suunnittelun tueksi Ryerson University, Toronto, Kanada 30 000
DI Surma-aho Antti Oskari Tutkijat maailmalle: Empatian kehittyminen ja vaikutukset designtyössä MIT, USA 15 000
DI Vepsäläinen Jari Markus Topi Tutkijat maailmalle: Fyysisten järjestelmien tietopohjainen sijaismallinnus epävarmuuksien alaisuudessa Stanford University, USA 24 000
Kaup. yo Erkamo, Silja Matka-apuraha: Opiskeluvaihto Université Laval, Faculty of Business Administration, Québec City, Kanada 1 000
Kaup. yo Pyysing Arttu Matka-apuraha: Opiskeluvaihto The Hong Kong University of Science and Technology 1 000
TkT Santala Ville Matka-apuraha: Tutkimusvierailu metabolia-muokkauksen ja synteettisen biologian laboratio MIT, USA 5 000
KTT Tukiainen Sampo Matka-apuraha: Tutkijavaihto SCANCOR-Weatherhead Harvard University, USA 5 000
DI Heinonen Oliver European Forum Alpbach Alpbach, Itävalta 1 500
Kaup. yo Lattu Annina European Forum Alpbach Alpbach, Itävalta 1 500

 

Apurahat cleantech-tutkimukseen

Puromäen ja Santasalon rahastoista myönnettiin rahoitusta 9 tutkijalle ja hankkeelle 55.000 euroa puhtaan veden ja energian tutkimukseen. Saimme kaikkiaan 41 cleantech-aiheista hakemusta, joten rahoitusta voitiin myöntää 22%:lle hakijoista.

Arvo Apurahansaaja Tutkimusaihe Yliopisto Myönnetty (€)
DI Erlund Rickard Seasonal thermal storage of energy by sorption of water in magnesium (hydro) carbonates, väitöstyö, Puromäen rahasto Åbo Akademi 6 000
DI Koponen Joonas Efficient hydrogen production with renewable energy, kannustusapuraha, väitöstyö, Puromäen rahasto LTY 6 000
DI Nair Devi Geetha Segregation of power loss in electrical machines through inverse thermal modelling and calorimetry, väitöstyö, Puromäen rahasto Aalto-yliopisto 6 000
DI Phiri Joseph Graphene production and application in cellulose fiber products for energy storage devices, väitöstyö, Puromäen rahasto Aalto-yliopisto 6 000
M. Sc. Tzarouchis Dimitrios Graded-index plasmonic nanoparticles for novel energy control applications, väitöstyö, Puromäen rahasto Aalto-yliopisto 3 000
Prof. Dahl Olli Biohiilen aktivointi ja käyttö teollisuuden jätevesien puhdistukseen. Kahden (2) DI-työntekijän palkkaukseen (a 6 kk) tai yhden (1) väitöskirjan tekoon vuodeksi. Aalto-yliopisto 22 000
FM Juhola Riikka Teollisuuden sivuvirtojen ja biomassojen hyödyntäminen vedenpuhdistuskemikaaleina, väitöstyö, Santasalon rahasto Oulun Yliopisto 6 000
TkT Levchuk Irina Pharmaceuticals and antibiotic-resistant bacteria elimination from hospital wastewater effluents (Helsinki area) by application of advanced oxidation processes, Santasalon rahasto Helsingin Yliopisto 5 000
FT Lusa Merja Raskasmetallien ja radionuklidien biosorptio ja -akkumulaatio – ympäristöbakteerien käyttö kaivosteollisuuden jätevesien biopuhdistuksessa, tutkimuskuluihin, Santasalon rahasto Aalto-yliopisto 5 000

Apurahat tekoälyn ja algoritmien tutkimukseen

Lisäksi maaliskuussa 2018 myönnettiin 50 000 euroa viidelle tutkijalle tekoälyn, algoritmien ja niiden vaikutusten tutkimukseen. Rahoitus kohdennettiin väitöskirjantekijöille ja nuorille postdoc-tutkijoille. Apurahahaku toteutettiin yhteistyössä Weisell-säätiön kanssa.

Arvo Apurahansaaja Tutkimusaihe Yliopisto Myönnetty (€)
VTT Laaksonen Salla-Maaria Performativity and social power of data and algorithms in analytics companies Helsingin Yliopisto 10 000
DI Lehtiniemi Tuukka Algoritmit ja uudet arvonmuodostuksen logiikat Aalto-yliopisto 10 000
TkT Raitoharju Matti Neuroverkkojen robusti koulutus TTY 10 000
FM Valkonen Mira Koneoppiminen digipatologian työkaluna Tampereen Yliopisto 10 000
TkT Xiaohua Huang Micro-Expression Recognition System For Reading Hidden Emotions In The Face Oulun Yliopisto 10 000

 

KAUTE-säätiön apurahat ovat jälleen haettavana tammikuussa 2019. Säätiö onnittelee kaikkia apurahansaajia ja toivottaa riemukasta kesää!