Tekoäly lasten asialla

Tuukka Lehtiniemi

Photo by Susan Holt Simpson on Unsplash

Lastensuojelu on osoittautunut houkuttelevaksi sovelluskohteeksi tekoälypohjaiselle ennakoivalle analytiikalle. Miten kehittää tekoälyä lastensuojelun omista lähtökohdista?

Viime huhtikuussa hallitustunnustelija Orpo lähetti eduskuntaryhmille listan kysymyksiä vastattavaksi. Tilaisuuteen tarttuivat monet hallitusohjelmaan vaikuttamaan pyrkivät tahot, esimerkiksi Sitra, joka julkaisi omat “oikeat vastauksensa”. Lasten, nuorten ja perheiden hyvinvointia koskevaan kysymykseen Sitra vastasi näin:

“Ehdotamme, että lainsäädännössä tehtäisiin täyskäännös lastensuojeluun liittyvän datan suhteen. Lainsäädännön tulee jatkossa tukea digitaalisten työkalujen sekä tekoälyn käyttämistä niin kutsutussa varhaisessa puuttumisessa – tällä hetkellä suojellaan dataa lasten ja nuorten sijaan. Muutoksessa on hyödynnettävä oppeja, joita saatiin Espoon kaupungin vuoden 2018 kokeilusta hyödyntää tekoälyä syrjäytymisen havaitsemiseen. Tulosten hyödyntäminen kaatui lakiesteisiin.”

Vastaus on monin tavoin oireellinen. Se kertoo kitkasta datan hyödyntämisen ja datan käyttöä rajoittavan, usein yksityisyyden suojaan pohjautuvan sääntelyn välillä. Lisäksi se kuvastaa vankkaa uskoa tekoälyn ennakoivaan voimaan. 

Sitran mainitsemassa Espoon kaupungin kokeilussa silloinen Tieto kehitti tekoälymallin lastensuojelun asiakkuuden ennustamiseksi. Hankkeesta uutisoitiin laajasti. Tällaisissa malleissa on yleensä kyse ennakoivasta analytiikasta, ja esimerkkejä sen soveltamisesta lastensuojeluun löytyy paitsi Suomesta, myös kansainvälisesti (Alston, 2019; Cuccaro-Alamin ym., 2017; Gillingham, 2019). Tarkoituksena on yleensä tunnistaa vasta syntymässä olevia ongelmia, jotta niihin voitaisiin puuttua.

Ulkopuolelta katsoen tekoälypohjainen ennakointi istuu lastensuojeluun hyvin: sosiaalityöntekijät pyrkivät arvioimaan lapsen olojen turvallisuutta ja ennakoimaan riskejä. Ajatuksena on, että jos koneille annetaan riittävästi dataa, ne ovat tällaisissa monimutkaisissa tehtävissä ihmistä parempia, tehokkaampia ja puolueettomampia (Boyd & Crawford, 2012; van Dijck, 2014). Miksi ei siis laittaisi konetta ennakoimaan lastensuojelussa?

Sitran kaltaisten datan ja tekoälyn voimaan uskovien toimijoiden näkökulmasta tehokkaan ennakoinnin esteenä on lähinnä lainsäädäntö. Sitra ehdottaa lainsäädännön muuttamista vastaamaan teknologian tarpeita. Mutta ehkä teknologiaa pitäisi pikemminkin muuttaa vastaamaan ihmisten tarpeita? Kansainvälisesti arvostetussa Information, Communication & Society -lehdessä julkaistun tutkimukseni (Lehtiniemi, 2023) perusteella haave koneen tekemästä tehokkaasta ennakoinnista pohjaa virheelliseen käsitykseen siitä, mistä ennakoinnissa on sosiaalityön kaltaisessa ammatissa kyse. 

Ennakointia koneen avulla

Suomesta löytyy Espoon kokeilun lisäksi muitakin esimerkkejä ennakoivan analytiikan käytöstä lastensuojelussa - myös sellaisia, joissa teknisiä ja lakiesteitä on ratkottu niin pitkälle, että mallien rakentamisesta on edetty varsinaisiin tekoälytyökaluihin. Pääsin tekemään tutkimusta hankkeesta, kun yksi sote-alueista pilotoi kiireellistä sijoitusta tai huostaanottoa ennustavan työkalun käyttöä.

Ajattelu pilottityökalun taustalla on kuin Sitran pelikirjasta: sijoitus- ja huostaanottotapaukset ovat sekä inhimillisesti että taloudellisesti raskaita, ja niiden varhaisen tunnistamisen ajatellaan mahdollistavan ennaltaehkäisevän puuttumisen. Sote-alueella kehitettiin ennakoivan analytiikan malli, ja pilotissa lastensuojeluilmoituksia käsittelevät sosiaalityöntekijät saattoivat asiakastapaamisen yhteydessä, asiakkaan suostumuksella, tarkastella tekoälyn tuottamaa riskitietoa: onko mallin perusteella riski kiireelliseen sijoitukseen tai huostaanottoon koholla kyseisen lapsen kohdalla, ja mitkä riskitekijät tähän vaikuttavat.

Kun haastattelin pilotissa mukana olleita ammattilaisia, oletin että puhe kääntyisi hyvin tunnettuihin tekoälypohjaisten ennustemallien ja -työkalujen ongelmiin. Yhteiskunnan eri osa-alueilla käytettävät ennustemallit nimittäin aiheuttavat kautta linjan samankaltaisia ongelmia ja tekevät samankaltaisia virheitä. Mallit ovat usein jonkinlaisia vinoumia sisältävän tai puutteellisen datan varassa, ja tekijät koodaavat mallien ja työkalujen sisään omat olettamuksensa ja päättelyharhansa. Tällaiset tekoälyn haitalliset vaikutukset ovat laajasti tunnistettuja sekä yleisesti (esim. Chiusi ym., 2020) että sosiaalityössä erityisesti (Eubanks, 2018). Laajalti uutisoituja tapauksia virheiden ja epäoikeudenmukaisten mallien seurauksista löytyy esimerkiksi Alankomaista. Erityisesti jo valmiiksi haavoittuvassa asemassa olevat päätyvät usein kärsimään virheiden seurauksista. 

Ongelmat korostuvat, jos tekoälymallien avulla tehdään päätöksiä automaattisesti, ilman inhimillistä harkintaa. Suomessa lastensuojelulla on matkaa koneen automaattisesti tekemiin huostaanottopäätöksiin, ja hyvä niin. Lastensuojelu on herkkä tekoälyn sovelluskohde, ja virheiden seuraukset voivat olla yksilöille katastrofaalisia myös ilman automaattisia päätöksiä. Pelkästään riskiryhmään kuuluminen saattaa olla stigmatisoivaa (Keddell, 2015). Ennusteiden tarkkuudella ja luotettavuudella on lastensuojelun kaltaisella kentällä erityisen suuri merkitys.

Tekoälyn perimmäisempi ongelma

Tekoälyn mukanaan tuomien syrjivien käytäntöjen, virheiden ja erilaisten harhojen sijaan haastatteluissa keskiöön nousi toinen, kenties vieläkin perimmäisempi ongelma: pilotoitu tekoälytyökalu ei ollut yhteensopiva käytännön sosiaalityön kanssa. Yhteensopimattomuus syntyi muun muassa eroista siinä, miten ennakointi ymmärretään.

Sosiaalityöntekijöille ennakoinnissa ei ollut kyse koneen tuottamasta riskitiedosta, vaan ammatillisesta tiedontuotannon prosessista. Prosessin ytimessä on asiakastyö. Sosiaalityöntekijät pyrkivät asiakastyön avulla muodostamaan asiakkaan yksilölliseen sosiaaliseen tilanteeseen ja ympäristöön sitoutunutta tietoa asiakkaan ongelmista ja kyvyistä pärjätä niiden kanssa. He eivät odottaneet tekoälyltä ennakointitiedon tuottamista, vaan tukea tiedontuotannon prosessille. Tekoälytyökalua ei kuitenkaan ollut suunniteltu asiakastyötä vaan nimenomaan riskin ennakointia ajatellen. Silloin tekoäly ei auta sosiaalityöntekijää ennakoimaan, vaan yrittää ennakoida sosiaalityöntekijän puolesta. 

Toinen keskeinen ero tekoälyn ja sosiaalityöntekijän ennakoinnin välillä liittyi tekoälyn tapaan käsitellä asiakasta riskitekijöiden kokonaisuutena ja historiansa tuloksena. Kone olettaa samanlaisen historian tarkoittavan samanlaisia ongelmia tulevaisuudessa: jos tietyt riskitekijät ovat yleensä tarkoittaneet, että tietty ongelma toteutuu, se toteutuu myös tällä asiakkaalla. Eräs haastateltavista kutsui koneen näkökulmaa vikalistaksi. Sosiaalityöntekijät eivät pitäneet vikalistaa, siis ihmisen taustaa ja menneitä ongelmia, perusteena ryhtyä toimiin – keskeistä olivat asiakkaan nykytilanne, mahdollisuus muuttaa elämän suuntaa, ja kyvyt tai haasteet pärjätä ongelmien kanssa. Ihmisen tilanteen tiivistäminen listaksi ongelmia vaikutti olevan perusteiltaan pielessä ammatissa, jossa pyritään ymmärtämään ongelmien syitä ja auttamaan yksilöllistä asiakasta uniikissa tilanteessa.

Käyttökelpoista tekoälyä sosiaalityöhön

Tekoälytyökalun ja sosiaalityön yhteensopimattomuudesta kumpusi ajatuksia siitä, mitä tekoälyllä voisi lastensuojelun kentällä tehdä. Näiden ajatusten ytimessä oli asiakastyö.

Haastattelemani sosiaalityöntekijät eivät kokeneet hyötyneensä pilottityökalun riskiarviosta. Osa kuitenkin kiinnitti huomiota työkalun esille nostamiin riskitekijöihin. Riskitekijät ovat otteita rekistereistä, ja kuvaavat siis asiakkaan menneisyyttä tai nykytilannetta. Sosiaalityöntekijät kokivat tällaiset tiedonmuruset hyödyllisiksi asiakkaan kohtaamisessa. Kuten missä tahansa tietotyössä, oleellisen tiedon löytäminen on sosiaalityössäkin vaikeaa. Sosiaalityöntekijät ajattelivat, että tekoäly voisi ennakoinnin sijaan poimia asiakasta koskevasta aineistosta tilanteeseen nähden oleellisia yksityiskohtia tai esimerkiksi laatia yhteenvetoja. Mennyttä ja nykyhetkeä valottamalla tekoäly voisi tukea asiakastyötä, ja tulevaa ennakoivan tiedon muodostaminen tapahtuisi ihmisvoimin.

Haastateltavat pyrkivät kurkistamaan tekoälyn avulla nykyhetkeen myös toisella tavalla, käyttämällä sen tuottamaa tietoa keskustelun kuljettamisessa. Tekoälyn tuottama ennakointitieto ei välttämättä ole totuus asiakkaan tilanteesta, mutta tekoäly on kuitenkin tuottanut tällaisen tiedon. Sosiaalityöntekijöiden mukaan tällainen epävarmakin tieto voi olla asiakastilanteessa samalla tavalla hyödyllistä kuin vaikkapa tiliote tai mikä tahansa muu ulkopuolelta tullut tieto: tällaista koneesta nyt tuli ulos, mitä me tästä ajattelemme? Pilotoidun työkalun tapauksessa tällaisen käytön teki hankalaksi se, että työkalu ennakoi huostaanottoa – siis äärimmäistä ja uhkaavaa, mutta usein perheen tämänhetkisestä tilanteesta varsin kaukana olevaa ja siksi kovin hypoteettisen tuntuista riskiä. Huostaanoton puheeksi ottaminen koettiin provosoivaksi, ja se oli asiakassuhteelle haitallista.

Ihmiset ihmisen töissä, koneet koneen töissä

Tekoälyn lupaus on olla ihmistä parempi: tehokkaampi, nopeampi, väsymättömämpi ja virheettömämpi. Tekoälytyökalun suunnittelua ohjaavaa näkökulmaa tulisi kuitenkin pohtia tarkasti. Mihin koneen vahvuuksia kannattaa soveltaa juuri tässä sovelluskohteessa?

Tutkimuksestani kumpuavaa ajatusta voisi kuvata yksinkertaisesti näin: sen sijaan että ajatellaan tekoälyä korvaamassa ihmisten ammattitaitoa, tulisi ajatella tekoälyä tukemassa ihmisen työtä. Näin muotoiltuna ajatus ei kuulosta erikoiselta, mutta ennakointiin ja ennaltaehkäisyyn tähtäävien tekoälyhankkeiden yleisyydestä päätellen sille olisi tilausta.

Käytännön sosiaalityössä olisi tarvetta ihmistyötä ja nimenomaan asiakastyötä helpottaville, lopulta varsin käytännönläheisille välineille. Tekoälyn kehittäjiä ja tilaajia kannustaisin unohtamaan ennakoinnin hetkeksi ja selvittämään, miten tekoälyä voisi kehittää sosiaalityön omista lähtökohdista. Ihmistyötä tukevat mutta päätöksentekovallan ja -vastuun ihmisellä säilyttävät työvälineet voisivat samalla välttää niitä eettisiä ja lainsäädännöllisiä karikkoja, joihin mullistuksia tavoittelevat ennakointihankkeet tapaavat jumittua. 


Kirjoitus on lyhennelmä Sosiaalialan digitalisaatio -blogissa julkaistusta tekstistä “Tekoälystäkö apua lastensuojeluun?” Se perustuu julkaisuun Lehtiniemi, T. (2023). Contextual social valences for artificial intelligence: anticipation that matters in social work. Information, Communication & Society. https://doi.org/10.1080/1369118x.2023.2234987

Viitattu kirjallisuus:

Alston, P. (2019). Report of the Special Rapporteur on extreme poverty and human rights. United Nations A/74/493. https://www.ohchr.org/en/calls-for-input/digital-technology-social-protection-and-human-rights-report 

Boyd, D., & Crawford, K. (2012). Critical questions for big data. Information, Communication & Society, 15, 662-679. https://doi.org/10.1080/1369118X.2012.678878 

Chiusi, F., Fischer, S., Kayser-Bril, N. & Spielkamp, M. (Eds.) (2020). Automating Society Report 2020. Berlin: AlgorithmWatch & Bertelsmann Stiftung.

Cuccaro-Alamin, S., Foust, R., Vaithianathan, R., & Putnam-Hornstein, E. (2017). Risk assessment and decision making in child protective services: Predictive risk modeling in context. Children and Youth Services Review, 79, 291-298. https://doi.org/10.1016/j.childyouth.2017.06.027 

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Gillingham, P. (2019). Can predictive algorithms assist decision-making in social work with children and families? Child Abuse Review, 28, 114-126. https://doi.org/10.1002/car.2547 

Keddell, E. (2015). The ethics of predictive risk modelling in the Aotearoa/New Zealand child welfare context: Child abuse prevention or neo-liberal tool? Critical Social Policy, 35(1), 69-88. https://doi.org/10.1177/0261018314543224 

Lehtiniemi, T. (2023). Contextual social valences for artificial intelligence: anticipation that matters in social work. Information, Communication & Society. https://doi.org/10.1080/1369118x.2023.2234987 

van Dijck, J. (2014). Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, 12, 197-208. http://ojs.library.queensu.ca/index.php/surveillance-and-society/article/view/datafication 









Edellinen
Edellinen

Apotti kertoo dataistuvan työn murtumista

Seuraava
Seuraava

What if it doesn't go wrong when prisoners train AI?