Blogi Noora Lehtonen 14.08.2019

Noora Lehtonen

Olen kognitiotieteen maisterivaiheen opiskelija, psykologian kandidaatiksi (B.Sc) valmistuin Wienissä. Työskentelen tutkimusvustajana Moralities of Intelligent Machines -tutkimusprojektissa, ja minua kiinnostaa ihmisten suhtautuminen digitalisaatioon. Gradussani keskityn ystävyystutkimukseen. Kevään 2019 vietin Verkellä kuntakyselyn analyysien parissa.

Profiiliin →

Millaisiin päätöksiin tekoäly pystyy? – tekoälyn eettisyys

Uusien teknologioiden eettisiä kysymyksiä on herätty pohtimaan yhä laajemmin. Ymmärryksemme tekoälystä ja teknologioiden tuomista haasteista on kuitenkin vielä lapsenkengissä. On aika käyttää mielikuvitustamme ja kysyä, mitä me haluamme tekoälyltä, millaisia ratkaisuja pidämme eettisesti kestävinä ja millaisia päätöksiä luotamme tekoälyn tehtäväksi.

Tekoälykeskustelun haasteet liittyvät varmasti osittain sen monitahoisuuteen: mihin edes viittaamme puhuessamme tekoälyn etiikasta? Saatamme yhtäältä kurkottaa kauas tulevaan, mahdollisiin teknologisiin ja sosiaalisiin kehityskulkuihin sekä läpimurtoihin tekoälyn kehityksessä. Toisaalta puhumme jo varsin arkisista aiheista, kuten siitä, millaisen datan pohjalta mainoskuvasto tai sivuille ohjaavat linkit näkyvät ruuduillamme. Tekoäly terminä on hankala, sillä se ei viittaa kovinkaan tarkasti kulloiseen kohteeseensa. Tekoäly voi tarkoittaa esimerkiksi neuroverkkoja, koneoppivia algoritmeja tai robotteja. Sillä voidaan viitata niin jo olemassa oleviin teknologioihin (ns. heikkoon, kapea-alaiseen tekoälyyn) kuin kehittyneempiin teknologioihin. Vahvalla tekoälyllä viitataan puolestaan tekoälyyn, jolla on kyky joustavaan, laaja-alaisempaan älykkyyteen. Toistaiseksi kaikki olemassa olevat tekoälyteknologiat ovat heikkoa tekoälyä. Käytän termiä tekoäly kokoamaan useita erilaisia teknologioita, kuten erilaisia oppivia algoritmeja, robotiikkaa ja esineiden internetiä (IoT).

Keskustelun hankaluus liittyy paitsi termin moniulotteisuuteen, mutta myös kyvyttömyyteemme hahmottaa tulevaisuuden monimutkaisia kehityskulkuja ja niiden toisiaan leikkaavaa luonnetta. Tekoälyteknologioiden kehitys vaikuttaa jo nyt käyttäytymiseemme ja onkin oletettava, että vaikutukset yhteiskunnallisella, sosiaalisella ja psykologisella tasolla ovat tulevaisuudessa merkittäviä. Loppujen lopuksi meillä ei ole kovinkaan hyvää käsitystä siitä, kuinka pitkälle vaikutukset ulottuvat tai miten me suhtaudumme ympäristöömme teknologisoituvassa maailmassa. Meille jää siis tehtäväksi esittää enemmän tai vähemmän valistuneita arvauksia ja toiveita siitä, mitä uudet teknologiat tuovat tullessaan ja mitä kaikkea tämä tarkoittaa meille. Me kohtaamme jo nyt eettisiä ongelmia tekoälyteknologioiden kanssa, mutta vastausten etsimisen suhteen olemme vasta alkumatkassa.

Kenen yksityisyys, kenen vastuu?

Meillä kaikilla, myös lapsilla ja nuorilla, on oikeus yksityisyyteen. Kuitenkin esimerkiksi älypuhelimemme keräävät ja jakavat meistä huomaamattamme jatkuvasti tietoa, usein ilman erillistä suostumustamme. Kiinassa lapset kulkevat enenevissä määrin älykellot ranteissaan. Henkilökohtaista informaatiota on tekoälyn myötä entistä helpompi kerätä, ja nämä tietomassat keskittyvät suurten, yksittäisten toimijoiden haltuun. Profilointi ja ihmisten toiminnan seuraaminen ja ennustaminen muuttuu yhä tarkemmaksi. Meidän on vaikea arvioida, mihin kaikkeen meistä kerättyä informaatiota käytetään. Lisäksi tietomassat eivät ole parhaimmillaankaan täysin turvassa ulkopuolisilta hyökkäyksiltä.

Sitten on kysymys suostumuksesta. Tekoälyn kanssa työskenteleville ihmisille ei välttämättä ole ollenkaan selvää, että pidämme someen lataamiamme kuvia ominamme. Se mihin tarkoitukseen lataamme kuvia internetiin, ei välttämättä ole ainoa, mihin niitä käytetään.  Samanaikaisesti vapaavalintaisuus suostumuksen antamiseen vaikkapa sosiaalisen median sovellukselle vaikuttaa melko näennäiseltä, mikäli koko ystäväpiiri kokoontuu kyseisin sovelluksen äärellä. Olemmeko sovelluksen ladatessamme siis luopuneet oikeudestamme yksityisyyteen?

Teknologioiden kehittyessä vaaditaan yhä enemmän läpinäkyvyyttä ja vastuullisuutta. On tärkeää, että tekoälyteknologioiden logiikka aukeaa myös vähemmällä perehtymisellä teknologioita ymmärtämättömille käyttäjille. Meidän on huolehdittava teknologisesta tasa-arvosta ja muistettava, että vähemmän kokeneet käyttäjät – kuten nuoret – ovat muita haavoittuvaisemmassa asemassa.

Kuinka data voi syrjiä?

Tiedämme ihmisen voivan olla päätöksissään epäluotettava ja syrjivä, joten moni on saattanut jo huokaista helpotuksesta – kone ainakin toimii luotettavasti ja tasa-arvoisesti! Helposti ajatellaan, että matematiikka ja data ovat objektiivisia. Ongelmaksi voikin muodostua se, että luvut, algoritmit ja data luovat vain illuusion objektiivisuudesta. Kun siis tietomassoja ja tekoälyä voidaan käyttää lisäämään informaation käyttöä päätöksenteossa, pitäisi muistaa etteivät päätökset ole koskaan neutraaleja tai puhtaan objektiivisia. Olisi myös hyvä sisäistää, että tekoälyn käyttämät ja tuottamat matemaattiset mallit ovat aina jossain määrin epävarmoja. Keskeiseksi muodostuu datan laadun ja edustavuuden arviointi.

Algoritmit ja data voivat olla eri tavoin vääristyneitä. Algoritmien käyttämä harjoitusdata voi olla vinoutunutta jonkin väestöryhmän ollessa ali- tai yliedustettuna, mikä johtaa syrjivään lopputulokseen. Tässä piilee myös tekoälyn mahdollisuus: tällaista algoritmia voisi käyttää tuomaan esiin datan takaa paljastuvia syrjiviä rakenteita yhteiskunnassa. Algoritmit voivat olla toisaalta vinoutuneita siinä mielessä, että ne ilmentävät koodaajansa arvoja. Teknologioiden kehittämisessä diversiteetti olisikin tärkeää. Naiset ovat teknologia-aloilla yleisesti aliedustettuja, ja epäsuhta on koneoppimisen saralla vielä tätäkin suurempi. Lisäksi sukupuoli- ja seksuaalivähemmistöjen, etnisten vähemmistöjen sekä eri ikäryhmien soisi olevan paremmin edustettuina. Nuorissa on siis toivo ja teknologiakasvatuksella on merkittävä rooli kiinnostuksen heräämiseen tekoälyteknologioihin ja teknologiseen lukutaitoon.

Inhimillisyys tekoälyn rinnalla

Kun puhumme tekoälyn eettisyydestä, on hyvä pitää mielessä, etteivät tekoälyteknologiat ole vain (apu)välineitä. Välineistä tulee osa kulttuuriamme ja kommunikaatiotamme ja huomio olisikin kohdistettava myös teknologian käyttötapoihin. Ei ole myöskään enää selvää, että ihminen ohjaa konetta. Yhtä lailla kone ja algoritmit ohjaavat meitä.

Jotta elämä tekoälyn rinnalla olisi inhimillistä, meidän olisi syytä kehittää teknologioita hyvän elämän mahdollisuuksia silmällä pitäen. Tekoäly voi toimia apunamme terveys- ja sosiaalialalla hoitaen rutiinitehtäviä. Tällöin inhimilliselle kohtaamiselle jäisi enemmän aikaa. Kuitenkin leikatessa resursseja tämä tie on samalla petollinen. Jos rutiinityö hoituu tekoälyltä, kuka määrittää mikä on tarpeellinen määrä ihmiskontaktia vaikkapa sängyssään makaavalle vanhukselle? Miten hoiva tulevaisuudessa jakautuu, kuinka hoidettavana olevat suhtautuvat avustaviin teknologioihin ja millainen mahdollisuus autonomiaan tai neuvotteluun heille jää?

Moraalikäsityksemme ja elämämme yhteisöissä perustuu vastavuoroisuudelle ja empatialle. Me myös jaamme toisistamme tietoa sekä rankaisemme ja palkitsemme toisiamme toimintamme perusteella. Moraalinen maine on keskeisessä osassa, kun valitsemme kenen kanssa tehdä yhteistyötä. Millaisen maineen voimme antaa tekoälylle, jolla itsellään ei ole moraalia? Kenelle langetamme vastuun eettisesti hankalissa tilanteissa, joissa tekoäly on tehnyt päätöksen? Mikäli vastuu lankeaa ei-kenenkään-maalle, on tämä omiaan rapauttamaan luottamustamme toisiimme ja ympäröivään yhteiskuntaan. Saatamme etääntyä päätöksenteosta, mutta samalla moraalinen tulkinta ongelmallisista ratkaisuista säilyy meillä ihmisillä – myös tilanteissa, joissa emme ole ymmärtäneet olevamme vastuullisessa asemassa. Samoin meiltä vaaditaan empatiataitoja ja kykyä asettua toisten ihmisten asemaan.

Kohti tulevaa

Kirjoitin jo alussa mielikuvituksen ongelmasta. Siitä kuinka vaikeaa meidän on ennustaa tulevaa. Kuitenkin meillä on jo nyt edessämme kysymyksiä joihin suunnata huomiomme tekoälyn saadessa enemmän jalansijaa. Millaisin perustein meidät valitaan työhaastatteluun? Entä miten mainokset, uutiset ja keskustelut ohjautuvat näkyvillemme somessa? Mitä ovat paljon puhutun kuplautumisen vaikutukset ulkoryhmien syrjinnälle, empatiakyvylle, arvoillemme ja tavoillemme vaikuttaa yhteiskuntaan? Toisaalta voisimme myös kysyä, kuinka valjastaa tekoäly demokratian ja kansalaisyhteiskunnan edistämiseen.

On myös hyvä pitää mielessä, ettei teknologia kehity itsestään tasa-arvoisesti. Millaisin intressein tekoälyä kehitetään? Miten teknologiat muokkaavat ympäristöämme ja havaintojamme? Ketä teknologiat hyödyttävät, millaisia arvoja ne luovat? Ympäri maailman teknologiat saattavat näyttää varsin erilaisilta. Se mitä suomalaiset keskimäärin arvioivat eettisesti paheksuttavana, voi olla Venäjällä, Kiinassa tai Yhdysvalloissa yleisemmin hyväksyttyä tai toisin päin. Globaalissa maailmassa kehityskulkua on vaikea hallita ja esimerkiksi yhteisten eettisten periaatteiden laatiminen tekoälyteknologioille on todellinen haaste.

Määritämme tekoälyteknologioiden kehittyessä uusia sosiaalisia normeja ja ihmisyyden rajoja peilaten niitä aiempaan. Meidän on toisaalta pidettävä huolta siitä, että kaikilla on mahdollisuus olla kehityksessä mukana, mutta samalla mahdollisuus vaalia autonomiaansa ja yksityisyyttään teknologioista irrallaan. Kimuranttia, eikö vain? On hyvä haastaa oletusta nuorista diginatiiveina ja tukea heitä sosiaalisissa suhteissa, empatiataidoissa ja eettisen kompassin vahvistamisessa tekoälyn kehittyessä.

Teknologiakasvatuksella digitaidot haltuun – digiosaaminen kehittyy samalla sekä nuorilla että nuorisotyöntekijöillä

Noora Lehtonen / 13.06.2019
Lisää blogeja →

Noora Lehtonen