Tekoäly rakentaa somekuplia, koska se tuottaa kassavirtaa

Kimmo Kuokka

13.02.2020

Viime vuosina on usein kuullut puhuttavan somekuplista, jolla viitataan siihen, että yhden ihmisen sosiaalinen media on erilainen kuin toisen. Kyseessä on konkreettinen ilmiö, jonka syntymiseen vaikuttaa vahvasti tekoäly, joka vastaa siitä, mitä some-palvelu eri käyttäjien silmille työntää.

Sosiaalisen median palvelut on suunniteltu pitkittämään ihmisen nettisessiota. Mitä kauemmin ihminen on verkossa, sitä enemmän hän näkee mainoksia. Ja se taas tietää verkkopalveluille enemmän kassavirtaa.

Esimerkiksi YouTuben algoritmin näkökulmasta videoita klikkaileva käyttäjä on prosessi, joka pitää saada toistumaan mahdollisimman monta kertaa. Kun käyttäjä klikkailee videoita, tekoäly oppii ymmärtämään, mitkä videot kiinnostavat – toisin sanoen, mitä videoita tarjoamalla prosessi toistuu mahdollisimman monta kertaa.

Mitä tehokkaammaksi tekoäly oppii, sitä useampi käyttäjä vajoaa YouTuben suosittelujen syövereihin, omaan somekuplaansa. Vastaavia kuplia luovat myös muut sosiaalisen median palvelut. Hyvä esimerkki on Twitter, jossa somekuplaa vahvistavat lukuisat botit, sillä uskottavia twiittejä – toisin kuin videoita – on erittäin helppo luoda boteilla.

Algoritmit pyrkivät muokkaamaan somekäyttäjää

Francois Collet pohti ongelmaa pari vuotta sitten hyvin yksityiskohtaisesti blogikirjoituksessaan ”What worries me about AI”. Kun sosiaalisten verkkopalvelujen algoritmit on suunniteltu vahvistamaan käyttäjän sitoutumista kyseiseen palveluun, voi se johtaa eräänlaiseen optimointilooppiin, jossa järjestelmä optimoi käyttäjälle tarjottavia suosituksia, kunnes käyttäjä toimii algoritmin toivomalla tavalla. Toisin sanoen järjestelmä yrittää optimoida käyttäjää.

Kehittynyt algoritmi voi toimia esimerkiksi niin, että kun käyttäjä julkaisee jotain, mikä on vastoin algoritmin olettamaa, se jakaa kyseisen päivityksen vain niille ihmisille, joiden se olettaa olevan eri mieltä päivityksen kanssa. Tällöin käyttäjä todennäköisesti luopuu vastaavan sisällön julkaisemisesta jatkossa ja toimii algoritmin mukaisesti.  Tämä toimii myös päinvastoin: algoritmin ”toiveiden” mukaiset päivitykset saavat näkyvyyttä niiden keskuudessa, jotka suhtautuvat asiaan positiivisesti.

Edellä kuvattu algoritmien toiminta johtaa somekuplien syntymiseen. Litteä maapallo alkaa näyttämään todelliselta, kun omassa siilossa siitä on enemmän sisältöä kuin pyöreästä maapallosta. Kun klikkailee riittävästi salaliittoteorioita, voi vajota maailmaan, jossa maailma on pullollaan salaliittoteorioita – ja vain salaliittoteorioita. Ja näin yhden ihmisen some on erilainen kuin toisen.

Collet jatkaa pohdintaa pidemmälle ja varoittaa, että vaikka kehittynyt tekoäly voi pitää ihmistä optimointibugina, muodostavat suuremman riskin ne tahot, jotka pyrkivät hyötymään suositusalgoritmeista. Some-palvelujen käyttäjädatan perusteella on todistettavasti vaivatonta ennustaa, onko käyttäjän parisuhde päätymässä eroon, tai miten hän aikoo äänestää seuraavissa vaaleissa.

Muokataan tekoälyä, ei ihmisiä

Salaliittoteorioiden painottamisen voi estää kahdella tavalla: joko kehotetaan ihmisiä klikkailemaan enemmän pyöreästä maapallosta kertovia sisältöjä tai muokataan tekoälyä. Sosiaalisen median palvelut haluaisivat taloudellisista syistä valita ensimmäisen vaihtoehdon. Erittäin positiivinen yllätys on se, että vuosi sitten YouTube teki merkittävän päätöksen ja päätti muokata suosittelumekanismia niin, että se ei enää painota huuhaasisältöä, vaikka se selkeästi tukisikin käyttäjän aatemaailmaa.

Aiemmin Googlella YouTuben tekoälyn parissa työskennellyt Guillaume Chaslot kirjoitti vielä keväällä 2017, miten videopalvelun tekoäly painottaa fiktiota faktojen sijaan. Sittemmin hän on luonut työkalun nimeltä AlgoTransparency, jonka avulla YouTuben nykyisen suosittelumekanismin toimintaan voi tutustua.

Somekuplassa lisääntyy myös radikaali ajattelu

Sama noidankehä toistuu myös muissa palveluissa ja muiden tekoälyratkaisujen kohdalla. Hyvin usein tekoäly mukautuu pieneen, hyperaktiiviseen ryhmään. Tämän ilmiön oppi taannoin myös Microsoft, jonka ystävälliseksi tarkoitettu AI-botti muuttui Twitterissä rasistiseksi mulkuksi alle 24 tunnissa.

Pahimmillaan somekuplaan vajoava ihminen voi päätyä hyvinkin radikaaleihin tekoihin. Viime vuonna eräs salaliittoteorioita voimakkaasti tukenut yhdysvaltalainen nuorimies sivalsi veljensä miekalla kuoliaaksi, koska hän uskoi veljensä olevan liskoihminen. Tutkinnassa selvisi, että tuomittu oli kirjaimellisesti elänyt omassa kuplassaan. Niin hämmentävältä kuin se kuulostaakin, liskoihmisten salaliitto on Yhdysvalloissa verrattain tunnettu teoria.

Kohti eettisempää somea?

Sosiaalisen median palvelujen mainosratkaisut ovat osaltaan syyllisiä kuplien syntyyn. Esimerkiksi Facebook on saanut usein kuraa niskaansa siitä, että se antaa rahaa vastaan käyttöön erittäin tehokkaan kanavan tehdä ns. social engineeringiä, jota ilkeämielinen voisi kutsua kevyemmäksi versioksi aivopesusta. Facebook hyötyy rahallisesti valheisiin ja salaliittoteorioihin perustuvien kuplien syntymisestä, joten sen mielenkiinto ongelman poistamiseen on ollut sangen laimea.

Verkkopalvelut keräävät meistä koko ajan yhä enemmän ja enemmän dataa, mikä luo entistä paremmat mahdollisuudet luoda toimivia somekuplia. Toivottavasti verkkopalvelujen omistajat ohjaavat palvelujen kehitystä eettiseen suuntaan ja algoritmien kehittäjät oppivat varautumaan paremmin niiden hyväksikäyttöön.

 

Kirjoittajasta

Kimmo Kuokka on Kaiun osakas, joka elää iloisena omassa somekuplassaan. Hänen kuplassaan maapallo on pyöreä ja pelottavimmat liskoihmiset esiintyvät 1980-luvun TV-sarjassa V.

 

Piditkö tästä kirjoituksesta? Saattaisit pitää myös näistä:

LinkedIn-profiili huippukuntoon näillä 6 niksillä

Polttavinta sosiaalisessa mediassa juuri nyt? – 5 tuliaista Social Media Week Londonista

Viestintävaltameren kiinnostavimmat vinkit, caset ja ilmiöt:

Tilaa Kaikuluotain-uutiskirje