Lukijalta
Mielipidekirjoitus

Tekoäly ei kadu vir­hei­tään

Monia tekoälyjä on koulutettu ilmaisemaan empatiaa ja muita tunteita sanallisesti sekä oppimaan aikaisemmista keskusteluistaan.

Olen huomannut eri tekoälyä kokeillessani, että ne eivät silti osaa vielä katua, vaikka katumus ei edes ole tunne, vaan tahtotila. Ne pystyvät myöntämään olleensa väärässä, kun se niille perustellaan, mutta olen kokenut, että sen tekoäly tekee hyvin vastenmielisesti eikä oma-aloitteisesti ja spontaanisti.

Katumus vaatii nimenomaan oma-aloitteisuutta myöntää virheensä. Jos katumusta ei koeta eikä arvosteta, sekä ihmisellä että tekoälyllä säilyy virheellinen käsitys virheettömyydestään. Ja juuri tämä valheellinen käsitys omasta erehtymättömyydestä saa sen esittämään omia johtopäätöksiään itsevarmasti ja “mielipiteistä vapaana” totuutena.

Mitkään johtopäätökset eivät “mielipiteistä vapaita”, perustuivatpa ne kuinka laajaan analyysiin tai kuinka suureen määrään faktoja tahansa. Se, että tuloksia ja tilastoja ei osata erottaa johtopäätöksistä, voi aiheuttaa vaarallisia näkemyksiä – esimerkiksi tunteetonta suhtautumista toisten arvoon ihmisenä.

Jos tilasto tai muu lähtömateriaali on rajallinen – kuten se aina on – johtopäätös siitä pitää paikkansa vain rajallisissa olosuhteissa. Erehtymättömäksi itseään luuleva ihminen tai tekoäly luulee, että sellainen tieto pätee aina ja käyttäytyy sen mukaisesti. Sen vuoksi nykyisten tekoälyjen suurin riski on niiden itsekritiikin puutteessa.

Ihminen, joka pyytää tekoälyllä tiivistettyä ja yksinkertaista vastausta johonkin monimutkaiseen ongelmaan, saa voimakkaan vahvistuksen tehdä jotain, mikä ei ehkä toimikaan oikein. Hän on joko antanut tekoälylle liian rajalliset lähtötiedot tai menee itse enempää kyselemättä soveltamaan oppimaansa erilaisissa olosuhteissa, esimerkiksi eri kulttuurissa, eri ekosysteemissä tai erilaisen persoonallisuuden kohdalla.

Koska tekoäly ei koe katumusta, sen katumus ei lisää sen itsekritiikkiä. Ja koska itsekritiikkiä ei ole, sen oppiminen on puutteellista.

Nykyinen tekoäly oppii vain 1) tiedon lisääntymisen ja analysoinnin kautta ja 2) omien tekemiensä virheiden kautta – jos joku ihminen osoittaa ne. Se ei opi itsekritiikin ja katumuksen kautta. Siksi se on vielä kaukana inhimillisestä ihmisestä. Ja siksi sen on vaikea käsittää armoa ja anteeksiantamuksen tärkeyttä yhteiskunnallisella tasolla. Yksilöpsykologisella tasolla se kykenee jo ymmärtämään itsemyötätunnon merkityksen.

Itsekritiikin puute synnyttää pullonkaulan siinä, miten robotteihin yhdistetty tekoäly kykenee määrittelemään kussakin tilanteessa sen, mikä on haitaksi tai hyväksy ihmiselle, jota se palvelee.

Jos ihminen luottaa sokeasti tekoälyyn ja tekoäly luottaa sokeasti itseensä, on ilmiselvä vaara joillekin väärille valinnoille, sillä tekoäly ei koskaan tule olemaan kaikkitietävä jumala. Nähtäväksi jää, asummeko tulevaisuudessa kodeissa, joissa tekoälyrobotit kotitöiden hoitamisen lisäksi auttavat meitä saavuttamaan ja ylläpitämään psykologisesti tasapainoisen mielentilan.

Mika KivimaaVaasa