Tekoälyä vai aitoa tyhmyyttä?

03.09.2018
Jaa

Tekoäly tunkee nyt joka paikkaan. Vai pitäisikö sanoa ”tekoälyhype”? Puheisiin nähden aika vähän on tapahtunut.

Kyse ei ole siitä, etteivätkö oppivat algoritmit olisi tehneet isoja asioita lyhyessä ajassa. Enemmänkin niin päin, että puheet ovat olleet täysin katteettomalla tasolla. Isoja ongelmia on lakaistu maton alle hillittömien odotusten tieltä.

Jokainen on varmaan kuullut, kuinka IBM:n Watson on diagnosoinut harvinaisen leukemiatyypin lääkäreitä tarkemmin. Kun ihmislääkäri vasta pääsee aloittelemaan työtään, on Watson siinä vaiheessa käynyt läpi jo toista miljoonaa tieteellistä artikkelia ja tehnyt oikean diagnoosin.

Tai että JP Morgan on vähentänyt tuhansia sopimusjuristeja palkkalistoiltaan, koska tekstianalyysiin perustuva algoritmi käy muutamassa sekunnissa läpi tuhansia sopimuksia. Samaan työhön kokonaiselta juristitiimiltä meni aiemmin lähes 360 000 työtuntia.

Kumpikin saavutus perustuu valtavan tietokannan tehokkaaseen läpikäyntiin, kun keskeisimmät parametrit on ensin valittu oikein ja järjestelmää opetettu fiksulla datalla.

Muutamaan dramaattiseen esimerkkiin perustuva hype kuitenkin unohtaa, että aika paljon olennaista vielä puuttuu. Tämän näkee, kun katsoo vaikka tekoälyn (AI) tuomia odotuksia henkilöarviointiin ja erityisesti persoonallisuuden arviointiin.

Ihmisen viimeinen pelikenttä?

Persoonallisuuden arvioiminen on alue, jossa ihminen on ollut luonnostaan taitava. Evolutiivisesti olemme harvinaisen hyviä arvioimaan piirteitä, jotka ovat relevantteja sosiaalisen käyttäytymisen kannalta.

Lauman jäsenten luotettavuus, johtamismotivaatio, älykkyys ja moni muu asia ovat voineet ratkaista koko lauman henkiin jäämisen. Kaikista näistä meille syntyy muutamassa sekunnissa vahva intuitio.

Alkaa kuitenkin näyttää siltä, että kohta kone on myös tällä alueella korvaamassa ihmisen. AI on löytänyt suuria ja yllättäviä korrelaatioita persoonallisuuden ja sosiaalisen median käyttäytymisen väliltä.

Muutama vuosi sitten julkaistiin vaikuttava tutkimus: Facebook-tykkäysten perusteella ihmisen itsearvioituun persoonallisuuteen syntyi AI:n avulla suurempi korrelaatio kuin tuttujen ihmisten arvioinneista, kunhan tykkäysten määrä ylitti 100 kappaletta.

Toinen dramaattinen esimerkki. Kun AI analysoi vapaasti kirjoitettua tekstiä sosiaaliseen mediaan, se löysi yhtä suuren korrelaation ihmisen itsearvioituun persoonallisuuteen kuin perinteisemmät arviointimenetelmät.

Aika upeita löytöjä – ainakin päältä katsoen.

Missä sitten ongelma?

Korrelaatio (tai vastaavasti regression selitysosuus), joka näissä tutkimuksissa on yleisin tunnusluku, piilottaa väliin tulevia muuttujia. Huolimattomasti tulkittuna se voi olla myös harhaanjohtava.

Facebook-tykkäykset kertovat persoonallisuudesta, mutta mittaavatko ne oikeasti persoonallisuuspiirteitä? Vai mittaavatko ne vain persoonallisuuteen usein liittyviä asioita, kuten ulkoisia motivaatiotekijöitä tai kiinnostuksen kohteita?

Cheerleading-tykkäysten ja ekstroversion yhteys on teoreettisesti varsin selvä. Mutta entä tilastollisesti merkitsevä yhteys neuroottisuuden ja sukunimen pituuden välillä? Pelkkää sattumaa.

Monessa tutkimuksessa myös erotteluvaliditeetti (discriminant validity) on jätetty kokonaan tutkimatta. Yhteyksiä kyllä löytyy, paljonkin, mutta löytyykö sellaisiakin, joita ei kuuluisi?

Esimerkiksi itsearvioidun ja AI:n arvioiman ekstroversion välillä voi olla yllättävän iso yhteys, ihan kuten pitäisikin. Mutta mitä pitäisi ajatella siitä, että itsearvioidun ekstroversion ja AI:n arvioiman tunnollisuuden välillä on vielä suurempi yhteys?

Osa yhteyksistä on siis – isosta datasta huolimatta – selvästi silkkaa sattumaa. Osa löydöistä luo ihan varmasti uusia, radikaalejakin näkökulmia persoonallisuuden arviointiin. Miten erottaa nämä toisistaan?

Bias algoritmissa

Rekrytoinnissa päätösten tasapuolisuutta, monimuotoisuuden turvaamista ja monta muuta kaunista fraasia on käytetty perusteena tekoälyn puolesta. Poliittisesti korrektissa markkinointiliturgiassa usein unohtuu, että tekoäly on vain niin puolueeton kuin sen opettaja.

Jos konetta opetetaan sellaisella datalla, jossa on joku vinouma valmiiksi sisällä, se tulee takuuvarmasti näkymään myös algoritmin päätöksissä. Teknouskovaisen se silti tuudittaa lapsenomaiseen uskoon, että koneen päätös olisi sokean tasapuolinen ja täysin objektiivinen.

Nopeasti ollaan vielä pahemmassa tilanteessa kuin aikaisemmin, koska kukaan ei keksi epäillä algoritmin objektiivisuutta. Vähän siis samaan tyyliin kuin ihminen, joka julistaa olevansa ”täysin puolueeton ja ennakkoluuloton” – joskus ehkä onkin, mutta yleensä ei.

Kannattaa siis olla varuillaan tekoälyhypen suhteen. Oma näppituntumani on, että sieltä vielä tulee jotakin oikeasti suurta. Mutta ne gurut, jotka väittävät näkevänsä tulevaisuuteen, ovat väärässä. Kuten aina ennenkin.

Luettavaa: Using Machine Learning to Advance Personality Assessment and Theory.

Kirjoittaja

Mikael Nederström
Tutkimusjohtaja, osakas
Kaikki tämän kirjoittajan artikkelit