Tässä blogissa:

Kuva: Stable Diffusion -tekoälyn käsitys afrikkalaisesta tekoälystä.

Algoritmi valkaisi päättäjän

Moni on viime aikoina hassutellut sosiaalisessa mediassa käyttämällä tekoälyvetoisia kuvageneraattoreita omissa kuvissaan. Tekoälyä saattoi pyytää piirtämään pyytäjän Matissen, Gallen-Kallelan tai vaikka van Goghin tyylillä. Kun Helsingin kaupunginvaltuuston puheenjohtaja Fatim Diarra laittoi kuvansa generaattoriin, tulos oli – yhdelle Suomen kuuluisimmista ruskeista – valkoihoinen glamour-kuva.

Miksi näin kävi? Tekoälyn toiminnan ymmärtäminen on kokonaisuudessaan ratkaisematon ongelma, mutta syrjivät tekoälyn rakenteet ovat saaneet osakseen paljon ansaittua huomiota viime vuosina. Valkoihoistavat Facebook-hassuttelut saattavat tuntua pieneltä asialta, mutta ne ovat helposti ymmärrettävä osa laajempaa ilmiötä, joka arkipäiväistyy koko ajan marginalisoitujen elämässä. Tämä on päivän aiheemme.

Marginalisoiduille representaatio on erittäin tärkeää. Tällaiset arkipäivän pienet iskut saavat kohteensa tuntemaan olonsa ulkopuoliseksi ja moneen kertaan toistettuna alkaa helposti kyseenalaistaa, onko oma identiteetti mustana tai ruskeana edes sen arvoista. On siis arvokasta itsessään tutkia, edistääkö kehitettävä tekoäly representaatiota ja tasa-arvoa.

Oman tekoälyn kouluttaminen on ohjelmointia osaavalle jo helppoa, mutta tekoälyn etiikkaa ei voi automatisoida. Loppujen lopuksi tekoälyalgoritmi on vain lineaarialgebraa, jolle on syötetty opetusaineistoa, eli sen kouluttaminen vaatii vain pari riviä koodia. Tekoälyn kouluttaminen ei kuitenkaan ole arvovapaa teko, vaan datan, koulutus- ja validaatiomenetelmien valinta muovaa tekoälyn yhteiskunnallista vaikutusta. Sen arviointi on kaikkea muuta kuin muutaman koodirivin veroinen suoritus. 

Useimmat algoritmit vinoutuvat jo datan keruuvaiheessa

Ensimmäinen – ja vaikein – askel tekoälyn kouluttamisessa on datan keruu ja siivoaminen. Jokainen tilastotieteen peruskurssin käynyt on lineaarista regressiota laskiessaan kouluttanut eräänlaisen koneoppimismallin, eikä sen kouluttaminen vaatinut tenttikysymyksen leipätekstiin mahtuvaa enempää dataa. Vähälläkin datalla voi siis tehdä koneoppimista.

Reaalimaailman koneoppimisen tulee kuitenkin pystyä oppimaan paljon enemmän nyansseja kuin yksinkertaisen regressiomallin, ja modernit malliperheet kuten syväoppiminen vaativat lisäksi luonnostaan monituhatkertaisia määriä dataa perinteisempiin malleihin nähden. Esimerkiksi itseään ohjaavat autot vaativat miljoonia kilometrejä aitoa ajodataa.

Tällaisten datamäärien keruuseen liittyy paljon eettisiä ja juridisia kysymyksiä: jos dataa kerätään havainnoiden, onko havainnoitavilta kerätty riittävä suostumus? Jos robotti ajaa itseään, ovatko jalankulkijat riittävän turvassa? Jos tehdään koeasetelmia mittausta varten, miten koeasetelmien eettisyys turvataan? Jos käytämme historiallisia oikeustapauksia, toisinnammeko eri arvoja edustavan historian päätöksiä, joita tämän päivän oikeusistuin ei tekisi? Jos käytämme taideteoksia, käytämmekö vain länsimaista kaanonia vai tuleeko koulutusdataan myös muuta taidetta?

Viimeinen kohta oli todennäköisesti yksi syy, miksi Fatu valkaistiin. Verkossa saatavilla olevat laajat taideaineistot ovat usein vinoutuneita länsimaisiin kokoelmiin, joissa korostuvat länsimaiset taiteilijat ja valkoihoiset mallit.

Datan luokittelu on inhimillinen prosessi

Pelkästään raa’an datan keruu on siis jo haastavaa. Raakadata itsessään ei välttämättä ole vielä hyödyllistä algoritmin kannalta, vaan tarvitaan inhimillistä kättä esimerkiksi opettamaan autolle mikä on jalankulkija tai mikä on barokkitaidetta. Inhimillinen arvostelukyky on aivan keskeisessä roolissa tällaisia päätöksiä tehtäessä ja – kuten aina inhimillisessä päätöksenteossa – arvot tulevat väistämättä läpi. 

Facebook rakensi vuoden 2015 tienoilla ”trending topics”-toimintoa, joka tekisi näkyväksi alustan kuumimmat keskustelut. Aiheiden nimeämistä ja tunnistamista varten palkattiin joukko vastavalmistuneita journalisteja. Ongelmaksi osoittautui, että suurin osa alustan keskusteluista koski Kardashianeja, joita taas insinöörit pitivät liian pinnallisina aiheina ja kuratoijat jatkoivat linjaa. Seurauksena alustan brändikuvan kiillotus vinoutti algoritmia puhtaasti luokitusten vuoksi.

(XKCD, Randall Munroe. CC BY-NC. Alkuperäinen teos.)

Vastaavasti valkaiseva algoritmi saattaa kärsiä datan luokittelun ongelmista. Jos sovellus on testivaiheessa mustannut valkoisia käyttäjiä, on siitä saattanut seurata tarvetta korostaa valkoisuutta. Mustia luokittelijoita, kehittäjiä ja testaajia taas prosessissa ei välttämättä ollut lainkaan.

Mallien kehittäjät ovat valkoisia miehiä

IT-ala ja tilastotiede ovat perinteisesti olleet valkoisten miesten valtakuntaa, eikä ole yllättävää että näiden leikkauspisteessä oleva tekoälykehitys on myös vinoutunut ala. Yhdysvalloissa alle viidennes tekoälyä sivuavien alojen tohtoreista on naisia ja 2 % on mustia. Lienee siis varsin epätodennäköistä, että kehitysvaiheessa musta nainen olisi koskaan vilkaissut valkaisevaa kuvamallia.

Tämä sama aliedustus aiheuttaa ongelmia myös monilla muilla aloilla. Esimerkiksi Pro Publica on raportoinut Yhdysvaltojen oikeusistuinten käyttämien riskimallien ongelmista, jotka estävät mustia saamasta bail-vapautusta rahapanttia vastaan ja kasvattaa riskiä joutua vankilaan, joiden populaatioissa mustat ovat yliedustettuja.

Ei ole itsestäänselvyys, että musta kehittäjä havaitsisi tällaiset ongelmat, mutta todennäköisempää se varmasti on. Mustan statuksen kanssa leikkaavat kuitenkin esimerkiksi sosioekonomiset piirit, jotka tekoälykehittäjillä ovat varsin erilaiset kuin marihuanan hallussapidosta pidätettävillä köyhyysrajalla olevilla.

Mallien sosiaalisia vaikutuksia arvioidaan vain harvoin

On kohtuutonta valuttaa kaikkea vastuuta vastuuttomista malleista niiden yksittäisille kehittäjille, jotka vain jatkavat rikkinäistä järjestelmää. Suurin osa tekoälymalleista kehitetään liiketoimintatarkoituksiin, ja liiketoiminnalle tärkeintä on kasvattaa liikevaihtoa tai siihen johtavia indikaattoreita kuten asiakaspitoa ja sovelluksen käyttöminuutteja.

Useimmat tekoälyt optimoidaan näitä tarkoituksia varten: osalle käyttäjistä annetaan yksi malli, toiselle toinen ja paremmat tulokset saanut malli viedään kaikille. Koska näitä arvioita tekevät ovat matemaattisesti harrastuneita, ryhmät jaetaan satunnaisesti tilastollisen pätevyyden maksimoimiseksi. Tämä on täysin rationaalinen, suorastaan rationaalisin, toimintatapa tässä institutionaalisessa ympäristössä, jossa optimoidaan yhtä ainoaa mittaria.

Menemättä liikaa voiton maksimoinnin etiikkaan, on selvää, että yhtä indikaattoria maksimoitaessa lentää enemmän lapsia kuin pesuvettä. Toisaalta on kohtuutonta pyytää pientä, kasvuhakuista startupia arvioimaan kaikki mahdolliset demografiset vaikutukset päätöksistään. Vaatimus on myös juridisesti kohtuuton, koska arvioidakseen demografisia vaikutuksia startupin pitäisi ensin kerätä demografista tietoa! Aikana, jolloin meitä kaikkia profiloidaan ja data on kauppatavaraa, riskiarvioiden tekeminen tällaisesta kaupasta on kaikin puolin haastavaa. (GDPR:n mukaan yleiseurooppalainen standardi tällaisen vaihtokaupan arviointiin on, ylittääkö yksilön perusoikeuksien loukkaamisesta kokema haitta datan käsittelijän saaman edun.)

Kuitenkin on selvää, että mitä suurempi yritys on kyseessä, sitä enemmän heihin tulisi kohdistua painetta arvioida tekojensa laajempia vaikutuksia. EU:n tuore Digital Markets Act asettaa alaansa hallitseville digitaalisille “portinvartijayrityksille” uusia velvollisuuksia, mutta niissä ei juurikaan tarkastella tässä kuvattuja näkökulmia.

EU:n valmisteilla olevassa AI Actissa määritellään edellytykset sille, milloin tekoälylle tulee laatia riskinhallintajärjestelmä ja sille asetetaan muitakin ehtoja. Tämä on askel oikeaan suuntaan, mutta suunniteltu prosessi on liian raskas ulotettavaksi kaikkeen tekoälytoimintaan. Tämän vuoksi olisi asiallista laatia GDPR:n yksityisyysvaikutusarviointiin rinnasteinen menettely, jolla yritykset ja muut toimijat todentaisivat suunnitellun tekoälyn systeemisen tason riskienhallinnan yhdessä maiden tietosuojaviranomaisten kanssa.

Tässä olisi poliitikoille, tietosuojavaltuutetulle, tekoälyosaajille ja aktivisteille työtä. Mitkä ovat pelisäännöt, joilla tekoälyä tulisi arvioida, kenen tekoälyjä tulee arvioida ja mitä näillä arvioilla tehdään? Laadukas keskustelu tekoälyn etiikasta antaa vielä odottaa itseään.

Janne Peltola

Kirjoittaja on Viitteen liittohallituksen jäsen ja vapaa datatieteilijä, jolla on liikaa aikaa miettiä tekoälyn etiikkaa.