DEDA – työkalu dataprojektien eettisen pohdinnan tueksi

Hanna Myllyniemi

Algoritmisia järjestelmiä hyödynnetään yhä enemmän julkishallinnon päätöksenteossa ja julkisissa palveluissa. Suomessa kehityssuunta näkyy esimerkiksi uusimman hallitusohjelman digipoliittisissa linjauksissa, jotka korostavat tekoälyn ja muiden teknologioiden käyttöönoton edistämistä. Parhaimmillaan algoritmiset järjestelmät sujuvoittavat erilaisia prosesseja yhdistäen ihmisen ja koneen vahvuuksia. Toisinaan hyvään pyrkivillä dataprojekteilla on kuitenkin ei-toivottuja seurauksia: ne voivat esimerkiksi voimistaa olemassa olevia eriarvoisuuksia tai heikentää yksityisyyden suojaa. Aina ei tulla ajatelleeksi, että nämä ei-toivotut seuraukset johtuvat järjestelmän kehitysvaiheessa tehdyistä arvovalinnoista.  Julkisilla organisaatioilla on eettinen vastuu sekä oikeudellisia velvoitteita varmistaa, että kansalaisten tietoja käytetään eettisesti ja vastuullisesti. Julkisia palveluita automatisoidessa onkin oleellista pohtia esimerkiksi sitä, tapahtuuko tällainen muutos yhteiseksi mielletyn arvoperustan vai esimerkiksi markkinatoimijoiden ehdoilla. 

Utrecht Data Schoolissa kehitetty keskustelupohjainen eettisen arvioinnin työkalu DEDA (Data Ethics Decision Aid) on syntynyt tarpeesta lisätä eettistä tietoutta julkishallinnon dataprojekteissa ja herättää niiden parissa työskentelevät tiimit pohtimaan projekteissa tehtyjä arvovalintoja. Työkalun suomenkielinen versio on syntynyt REPAIR-hankkeen, Digi- ja väestötietoviraston (DVV) ja  Utrecht Data Schoolin yhteistyön tuloksena. DEDA on oiva esimerkki siitä, kuinka uutta tutkimustietoa voidaan soveltaa ja tuoda osaksi julkisten organisaatioiden datakäytäntöjä.

Käytännössä DEDA koostuu kysymys kysymykseltä etenevästä keskustelupolusta sekä sitä tukevasta ohjekirjasta. Keskustelupolku ja ohjekirja luovat pohjan DEDA-työpajalle, johon dataprojektissa mukana olevat tahot voivat osallistua. Keskustelupolku sisältää 12 kategoriaa, jotka on jaettu dataan liittyviin sekä yleisiin kysymyksiin. DEDA haastaa pohtimaan muun muassa anonymiteettiin, avoimuteen ja vastuullisuuteen liittyviä kysymyksiä ja toimii samalla eettisen päätöksentekoprosessin dokumentoinnin pohjana. 

Päätöksenteon taustalla vaikuttavien arvovalintojen tunnistaminen dataan liittyvissä kysymyksissä voi olla haastavaa ilman aikaisempaa perehtyneisyyttä. DEDA:n vahvuutena onkin se, ettei työpajaan osallistuminen edellytä aikaisempaa ymmärrystä käsiteltävistä teemoista. Ohjekirja avaa keskustelupolun teemoja sekä etiikan teorioita niin, että aiheeseen perehtymätönkin pystyy osallistumaan keskusteluun. Tällä tavoin DEDA myös kouluttaa käyttäjiään. 

Jotta DEDA:n kaltaiset menetelmät olisivat aidosti toimivia, tarvitaan sekä tutkimustietoa että ymmärrystä toimintaympäristöstä, jossa niitä halutaan hyödyntää. Siksi on arvokasta, että DEDA:n lokalisointi Suomeen tapahtuu digitalisaatioon ja etiikkaan liittyviin kysymyksiin perehtyneiden asiantuntijoiden välisenä yhteistyönä. Yhteistyö käynnistettiin REPAIR-hankkeen johtajan Minna Ruckensteinin aloitteesta. Lokalisointia toteuttavat Utrecht Data Schoolin perustaja Marko Schäfer, REPAIR-hankkeessa työskentelevät Pekka Mäkelä, Veera Koskinen ja Hanna Myllyjärvi sekä DVV:n erityisasiantuntijat Joonas Aitonurmi ja Marko Latvanen.  DVV:llä on keskeinen rooli suomalaisen yhteiskunnan digitalisaation edistäjänä ja osaamista vastuullisten digitaalisten ratkaisujen käytäntöön viemisestä. 

Suomessa DEDA-työkalua päästään testaamaan käytännössä syksyllä 2023. On kuitenkin tärkeää muistaa, ettei DEDA:n tai sen kaltaisten menetelmien hyödyntäminen yksinään takaa dataprojektien eettisyyttä. Eettisen arvioinnin kohdalla tulisi välttää sortumista niin sanottuun “audit-washingiin”, jossa yksittäiset ja usein puolueelliset arvioinnit luovat tunteen “oikein” toimimisesta ilman todellista parannusta ongelmiin (Goodman & Trehu, 2022). Tämän vuoksi lokalisoinnin seuraavissa vaiheissa onkin tärkeää pohtia keinoja, joilla DEDA saataisiin aidosti jalkautettua osaksi organisaatioiden vakiintuneita rakenteita ja käytäntöjä. Parhaimmillaan DEDA:n kaltaiset työkalut auttavat projekteja ja organisaatioita pohtimaan, miten algoritmisia järjestelmiä voidaan hyödyntää tavalla, joka huomioi suomalaisen hyvinvointiyhteiskunnan keskeiset arvot.  

Jos olet kiinnostunut kokeilemaan DEDA:a projektissasi/ organisaatiossasi, ota yhteyttä: veera.koskinen@helsinki.fi

DEDA:n keskustelupolku haastaa dataprojektien parissa työskentelevät tiimit pohtimaan projektiin liittyviä eettisiä kysymyksiä ja arvovalintoja.

Kirjoittajasta: 

Olen Hanna Myllyniemi, sosiaalipsykologian maisteriopiskelija Helsingin yliopistosta. Työskentelin korkeakouluharjoittelijana REPAIR-hankkeessa touko-elokuussa 2023. Harjoittelijana pääsin syventymään tekoälyä ja eettistä digitalisaatiota koskevaan keskusteluun ja aloittamaan Data Ethics Decision Aid (DEDA) -työkalun lokalisoinnin Suomeen. Kirjoitan parhaillaan gradua tekoälyä koskevasta arkiymmärryksestä. Minua kiinnostavat erityisesti digitaaliseen eriarvoisuuteen liittyvät kysymykset sekä akateemisen tiedon tuominen osaksi organisaatioiden arkisia käytäntöjä. Koen tehneeni tärkeää työtä päästyäni kääntämään ja kehittämään konkreettista työkalua, jolla voidaan ennaltaehkäistä automatisaation epäsuotuisia vaikutuksia.

Edellinen
Edellinen

What if it doesn't go wrong when prisoners train AI?

Seuraava
Seuraava

Unintended consequences in computational creativity can lead to better outcomes