Tekoäly mahdollistaa
Kirjoittaja: Jarmo Matilainen
Helsingin Sanomien kirjoituksessa 6.1. pohdittiin sitä, josko valtio tietäisi kansalaisten tarpeet ennakolta ja osaisi siten räätälöidä itse kullekin sopivia julkisia palveluita. Ajatus on mielenkiintoinen, mutta sisältää olettamuksen: maantieteellisesti rajoitettu alue – eli valtio – määriteltäisiin niin merkittäväksi ihmisten elämässä, että sille annettaisiin ”lupa” datan perusteella päättää kansalaisten tarpeista. Kuulostaa aika orwellilaiselta yhteiskuntamallilta. Data on jo nyt hajautunut moneen eri kerrokseen, jossa sen omistajuus hakee paikkaansa. Se voi olla yksityisen yrityksen, julkisen toimijan, kansainvälisen verkkopalvelun tai omassa hallussa. Hyvin todennäköisesti monesta henkilöstä löytyy dataa eri paikoista, joista ei itse edes tiedä. Osa tällaisesta datasta on tahattomasti tallennettuna, esimerkiksi valvontakamerakuvissa; ja osa hyvinkin tarkoitushakuisesti, vaikkapa rikollisessa mielessä, kerättyä.
Samaan aikaan on käyty vilkasta keskustelua siitä, voiko viranhaltijapäätöksiä antaa automaation, algoritmien tai jopa tekoälyn tehtäväksi – etenkin kun lainsäädäntö ja virkakunnan toimintamallit päätöksiin liittyen voivat olla ajalta ”miekka ja kirves”. Kuitenkin pankit, vakuutuslaitokset, verkkokaupat ja monet muut yksityiset yritykset ovat jo pitkään hyödyntäneet ihmisten omaa dataa erilaisten palveluiden osalta. Myös Kela ja verottaja ovat automatisoineet päätöksentekoa, joka on nopeuttanut asiointia ja tuonut luottamusta siihen, että päätökset perustuvat dataan eikä pärstäkertoimeen.
Oleellisinta on päätöksessä käytettävän datan oikeellisuus
Oleellista tässä keskustelussa ei ole se tekeekö päätökset virkamies vai robotti, vaan mihin dataan päätös perustuu, mikä on kansalaisen mahdollisuus vaatia oikaisua ja miten päätös astuu voimaan. Tekoäly on täsmälleen niin hyvä, kun sen opetuksessa käytetty data on ollut. Jos tekoäly on opetettu tekemään vahingollisia päätöksiä väärän datan perusteella, niin juuri niitähän se sitten tekee. Tämä lisää tekoälyn käyttöön liittyvien eettisten pelisääntöjen merkittävyyttä, mutta myös vaatii järjestelmätoimittajilta työkaluja tekoälyn verifiointiin – aivan samalla tavalla kuin tarvitaan työkaluja roskapostien ja kyberturvallisuuteen liittyvien ongelmien havaitsemiseen. Tekoälyn kehittäjillä onkin nyt mahdollisuus liittoutua ja kehittää yhdessä teknologiaa tekoälyn etiikan ja oikeellisuuden tarkistamiseen!
Oppivan tekoälyn käyttöä tulee lisätä
Maailma on menossa yhä monimutkaisemmaksi ja monet päätettävät asiat eivät ole enää yhden ihmisen hallittavia. On kehitettävä asiantuntijatyökaluja monimutkaisten asioiden mallintamiseen. Lupaavin työkalu on juuri tekoäly, koska se oppii virheistään. Monet perinteiset asiantuntijajärjestelmät toistavat samoja ennalta koodattuja sääntöjä, koska ne eivät ole tekoälyn tapaan oppivia järjestelmiä. Jos perinteisessä asiantuntijajärjestelmässä on virhe, niin se toistaa virhettä siihen saakka, kunnes koodari muuttaa ohjelmistoa tai päätöksen teon pohjana olevaa sääntörakennelmaa ja vasta sitten virhe poistuu. Oppivan tekoälyn käyttöä siis kannattaakin lisätä, koska sillä voidaan korvata vanhentuneita sääntöpohjaisia järjestelmiä.