🎧 Kuuntele kirjoitus alta! Tekoälyfoorumi julkaisee kaikki jutut myös audiona. Kuuntele milloin vain, missä vain – vaikka puhelimen näyttö lukittuna.
Antihaurasta tekoälyä eettisellä innovaatiolla
"Nyt on aika kääntää katse eettisesti kestävään tekoälyyn, joka vähentää epävarmuutta ja tukee innovaatiota.", kirjoittaa teknologiaeetikko Salla Westerstrand.
Westerstrand tarkastelee Tekoälyfoorumille kirjoittamassaan artikkelissa sitä, miten tekoäly kääntyy arvoksi kestävällä liiketoiminnalla silloinkin, kun markkinoilla vallitsee epävarmuus ja innovaatio tuntuu sakkaavan. Näiden neuvojen avulla jokainen voi kasvattaa oman organisaationsa mahdollisuuksia onnistua tekoälyn kanssa.

Tekoäly näyttää tulleen jäädäkseen
Lähes jokainen organisaatio etsii nyt tekoälyn luvattuja hyötyjä ja pohtii, miten ne saataisiin omassa organisaatiossa täysmittaisesti käyttöön. Tekoälystä on tutkitusti hyötyä useissa ammateissa, kuten lääketieteessä, juridiikassa ja logistiikassa, ja sen mahdollisuuksista tehostaa työtä puhutaan lähes jokaisella työpaikalla.
Ensimmäiset kokeilut ovat kuitenkin osoittaneet monelle organisaatiolle, kuinka todelliset hyödyt tekoälystä eivät realisoidu pelkästään kannustamalla työntekijöitä ChatGPT:n käyttöön. Monet kamppailevat epävarmuuden kanssa ja odottavat, josko kasvavat investoinnit alkaisivat tuottaa tulosta ajan kanssa.
Tekoäly ei kuitenkaan ole ainut käsillä oleva murros. Roger Spitz kuvailee tuoreessa kirjassaan (Disrupt with Impact, KoganPage, 2024) nykytilaa jatkuvaksi disruptioksi, jossa monet samanaikaiset murrokset ylläpitävät epävarmuutta, kompleksisuutta ja volatiilia markkinailmapiiriä. Tekoäly on siis yleistynyt hetkessä, jossa kamppailemme myös muun muassa pandemiasta toipuvien markkinoiden, epävarman poliittisen ilmapiirin ja ympäristökriisin keskellä. Moni hakeekin tekoälystä helpotusta kenties juuri kriiseistä selviytymiseen – ehkä jopa niiden keskellä kukoistamiseen.
Tässä yhtälössä tekoäly ei käänny arvoksi itsestään. Nyt on aika kääntää katse eettisesti kestävään tekoälyyn, joka vähentää epävarmuutta ja tukee innovaatiota.
Tervetuloa siis matkalle kohti antihaurasta tekoälyä.
Hauras tekoäly
Tekoälyä markkinoidaan usein supervoimana, joka soveltuu tehtävään kuin tehtävään ja suoriutuu niistä vähintään yhtä hyvin kuin ihminen. Erityisesti generoivaa tekoälyä inhimillistetään ja mystifioidaan, mikä luo ihmisille odotuksia yli-inhimilliset voimat omaavasta ihmelaitteesta.
Tekoäly toimii kuitenkin hyvin eri tavalla kuin ihminen, eikä siihen liity yliluonnollista mystiikkaa. Kun tekoälymalli generoi tekstiä, se laskee todennäköisimmän sanan lauseen jatkoksi riippumatta sen asiasisällön oikeellisuudesta – jälkimmäistä kun ei pystytä matemaattisesti laskemaan. Se pelaa hyvin silloin, kun odotettu lopputuotos seuraa samanlaista kaavaa kuin aikaisemmat vastaavat tuotokset, joilla malli on koulutettu. Siksi esimerkiksi juristien generoivat tekoälytyökalut tuottavat jo hyvää tulosta.
Myös ei-generoivat koneoppimismallit perustuvat vastaavasti valikoituun koulutusdataan, jolloin säännöllisesti toistuvien lineaaristen ilmiöiden ennustemalleihin saadaan korkeita tarkkuuksia.
Koska tekoälyn tuotokset perustuvat sille syötettyyn ja aina jonkun kuratoimaan dataan, tulevat mukana myös datassa vallitsevat rakenteelliset vinoumat, virheet ja arvo-olettamat. Tutkimusten mukaan tekoäly ei vain toista vaan vahvistaa ihmisten omia vinoumia, ja niistä kärsivät tyypillisesti eniten jo valmiiksi heikommassa asemassa olevat ihmiset. Toisin kuin ihmisten vinoumat, tekoälyn vinoumat ovat myös systemaattisia ja leviävät laajalle. Kun ChatGPT:n kaltaista työkalua käytetään maailmanlaajuisesti, sen vinoumat saavuttavat samoin kaikki käyttäjäjoukot.
Vinoumat kuuluvat tekoälyyn, sillä se perustuu teknologiana vinoumien hyödyntämiseen. Toisinaan vinouma ei ole haitallinen – emme esimerkiksi yleensä halua tekoälyn generoivan kuvaa sinisestä appelsiinista, jos haluamme vain tavallisen oranssin. Koska tekoälyn datassa appelsiinit ovat yleensä oransseja, on myös sen generoima appelsiini onneksi todennäköisesti oranssi.
Jos taas haluamme tekoälyn generoivan kuvia esimerkiksi lääkäreistä ja hoitajista, koulutusdatan vinoumien vuoksi lääkärit kuvataan yleensä miehinä ja hoitajat naisina. Kun tekoälyalgoritmit oppivat nämä rakenteet, heijastuvat vinoumat myös tekoälyn avustamiin päätöksiin rekrytoinnissa, suoritusten arvioinnissa, tuomioistuimissa tai muissa ihmisten elämään merkittävästi vaikuttavissa tilanteissa.
Tekoälyn kehittäjät ovat jo onnistuneet korjanneet kaikista räikeimpiä harmillisia vinoumia. Kuten Josh Simons huomauttaa kirjassaan Algorithms for the People (2023, Princeton University Press), vinoumia poistavat tekniset ratkaisut onnistuvat kuitenkin vain yhdellä useista mahdollisista reiluuden mittareista kerrallaan. Koska vinoumat eivät ole tekninen vaan sosiaalinen ongelma, niiden poistaminen täysin teknologian keinoin on mahdotonta. Korjaaminen vaatisi tutkitusti proaktiivista rakenteellisiin vinoumiin tarttumista.
Vinoumien lisäksi tekoälyn kehittäminen ja ylläpito on raskasta ympäristölle ja organisaation resursseille. Se tuo mukanaan yhteiskunnallisia haasteita, kuten väärän tiedon leviämisen, haitallisen vaalivaikuttamisen ja manipuloinnin kaltaisia ongelmia, jotka uhkaavat esimerkiksi demokratiaa. Isojen tekoälytalojen tuotot tehdään usein heikommassa asemassa olevan halpatyövoiman kustannuksella maissa, jotka eivät lopulta juurikaan itse hyödy tekoälykehityksestä.
Nämä kaikki haasteet tekevät tekoälystä lähtökohtaisesti hauraan teknologian, joka ei sovellu työkaluksi kaikkien ongelmien ratkaisuun. Samoin teknisesti kypsä organisaatio voi olla tekoälymurroksen keskellä hyvin hauras, jos sen kyky tunnistaa tekoälyn eettisiä ongelmakohtia ja heikkouksia on rajallinen, eikä mahdollisuuksia positiivisen arvon luonnille nähdä laajamittaisesti.
Hauraus näyttäytyy muun muassa epävarmuutena ja haluttomuutena kokeilla. Se näyttäytyy tekoälyn täyskieltoina ja yksilöiden salaisina omina kokeiluina turvattomissa ympäristöissä, jotka johtavat pahimmillaan yrityssalaisuuksien ja henkilötietojen valumisen vääriin käsiin. Sen seurauksena sivuutamme arvopotentiaalia, joka voitaisiin hyödyntää hyvällä tekoälyn hallinnalla ja eettisellä innovaatiolla.
Toisaalta hauraus voi näyttäytyä huolettomana tekoälyn käyttönä, jonka seurauksena materialisoituu organisaation mainetta, liiketoimintaa tai loppuasiakkaita vahingoittavia riskejä – sellaisia, jotka olisi voitu välttää osaavalla ennakoinnilla ja vahvalla eettisellä osaamisella.
Jos siis haluamme luoda tekoälyllä aidosti arvoa, joka jatkaa antamistaan vielä hypen jälkeenkin, meidän on panostettava haurauden vastakohtaan: antihaurauteen.
Antihauras tekoäly
Nassim Nicholas Taleb puhuu 2012 ilmestyneessä kirjassaan Antifragile siitä, kuinka disruptioiden keskellä meiltä vaaditaan antihaurautta. Se on resilienssistä vieläkin seuraava taso, joka ei vain auta selviämään murroksen keskellä, vaan kääntää sen kilpailukykyä vahvistavaksi voimavaraksi.
Antihaurauden saavuttaminen vaatii kyvykkyyttä ymmärtää monimutkaisia ilmiöitä. Kun otamme käyttöön tekoälyä, antihauraus ilmenee kykynä havainnoida tekoälyn laajempia eettisiä ja yhteiskunnallisia vaikutuksia, kokeilla turvallisesti ja ottaa hallittuja riskejä. Se rakentaa vahvan pohjan, jonka päällä jokaisen on helppo tunnistaa tekoälyn tuomia mahdollisuuksia kilpailukyvyn kasvattamiseen.
Se hyödyntää kompleksisen ympäristön rikkautta, eikä lamaannu murroksen ja yllättävien käänteiden keskellä.
Antihauras organisaatio ei jää passiivisen odottajan rooliin vaan tarttuu empimättä tuumasta toimeen ja pystyttää tarvittavat tekoälyn hallinnan rakenteet innovaation vauhdittamiseksi. Se hankkii itselleen osaamisen, joka avulla tekoälyn mahdollisuudet ja rajat tunnistetaan jo alkuvaiheessa. Näin resurssit kohdennetaan kestävää arvoa tuottaviin ratkaisuihin.
Antihauras organisaatio näkee itsensä ja tekoälyn osana laajempaa, planetaarista digitaalista ekosysteemiä, jolloin sen katse kääntyy nykyisen tekemisen tehostamisesta uuden luomiseen. Silloin koko systeemi kasvaa yhdessä ja ruokkii globaalia kehitystä taloudellisesti, eettisesti, yhteiskunnallisesti ja ympäristöllisesti kestävästi.
Antihauras tekoäly ei toisin sanoen ole vain teknologiaa – se on organisaation rakenteita, osaamista, muotoiluajattelua ja johtamista. Antihauraan tekoälyn ympärillä työskentelee datatieteilijöitä, eetikoita, juristeja, designereita, strategeja ja insinöörejä, joiden yhteistyöllä syntyy sekä teknologia että johtamisen rakenteet.
Kuten Spitz kuvailee yllä mainitussa teoksessaan, antihauraus luo pohjan ennakoivalle liiketoiminnalle, joka kääntää tekoälyn tuoman disruption kilpailukykyvyksi.
Eettinen kestävyys – ensimmäinen askel kohti antihaurautta
Antihaurautta vahvistaa monet tekijät, joista lukuisia esimerkiksi Taleb ja Spitz esittelevät omissa teoksissaan. Kaiken avain on kuitenkin kompleksisuuden ja epävarmuuden hallinta, jossa ehdoton ykköstyökalu löytyy etiikasta.
Etiikka tuo monille mieleen antiikin filosofit, jotka kyselevät torilla toisiltaan vaikeita kysymyksiä. Nykyaikainen soveltava etiikka – kuten tekoälyetiikka – on kuitenkin jotain muuta. Se tarjoaa välineitä, joiden avulla ratkomme tosielämän eettisiä haasteita ja arvoristiriitoja, jotka haittaavat innovaatiota ja mahdollisuuksia teknologian täysmittaiselle hyödyntämiselle.
Eettisen innovaation avulla tunnistamme tutkitusti enemmän ja monipuolisempaa arvopotentiaalia. Etiikalla vahvistamme myös organisaation kykyä tunnistaa tekoälyn eettisiä vaikutuksia, jotka ovat esteenä arvonluonnille. Se auttaa kysymään oikeita kysymyksiä, vähentämään epävarmuutta ja siten vahvistamaan innovaatiokyvykkyyttä ja -halukkuutta.
Etiikan avulla toisin sanoen ymmärrämme paremmin, mihin tekoälyä kannattaa käyttää ja mitkä käyttötapaukset kaatuvat eettiseen kestämättömyyteen.
Eettisyys ei tarkoita, ettei saisi kokeilla. Päinvastoin – monesti ymmärrämme teknologian vaikutuksia parhaiten, kun pääsemme kokeilemaan ja näkemään, miten algoritmit käytännössä toimivat. Kun eettinen harkinta on osa kokeilemisen kulttuuria, rakennamme tekoälyä antihauraalle pohjalle.
Ensimmäinen askeleesi kohti antihaurasta tekoälyä on siis etiikan tuominen osaksi kokeiluita ja käytäntöjä.
Käsiteltävät kysymykset voivat olla monimutkaisia, mutta niin on tekoälykin. Koska ongelmat eivät aina ole teknisiä, myöskään niihin sovellettavat ratkaisut eivät usein löydy yksin koodarin työpöydältä.
Antihauraat organisaatiot tarttuvat vaikeisiin kysymyksiin pelottomasti, sillä niiden käsittely on kaikille tuttua. Organisaatiosta löytyy osaavia eettisen keskustelun fasilitaattoreita, ja toimintamalleissa on varattu sopivasti tilaa eettiselle keskustelulle prosessien oikeissa kohdissa.
Eettinen harkinta on taito ja kyvykkyys, jota organisaatiossa voi ja kannattaa kasvattaa. Ilman eettistä harkintaa emme saavuta antihaurautta, joka mahdollistaa tekoälyn kilpailukykyhyödyt.
Tunnista ensin oma lähtötilanteesi ja mieti:
Kuinka tottuneita meillä ollaan kysymään epäselviä kysymyksiä vastuisiin, arvoihin tai yhteiskunnallisiin vaikutuksiin liittyen?
Tiedämmekö, missä vaiheessa etiikasta keskustelu toimii innovaation vauhdittajana ja milloin hidastajana?
Olemmeko jo täydentäneet osaamistamme rekrytoinneilla tai tunnistaneet yhteistyökumppaneita, joiden osaamista voimme hyödyntää?
Jos vastaus johonkin näistä kysymyksistä on ”Ei”, on antihaurauteen vielä matkaa.
Se on hyvä uutinen. Se tarkoittaa, että organisaatiossasi on vielä valtavasti piilevää potentiaalia odottamassa löytämistä.
Ota siis tukeva askel kohti antihaurautta ja kasvata organisaatiosi eettistä osaamista. Ota haltuun tekoälyn eettiset ja yhteiskunnalliset ulottuvuudet, kokeile turvallisesti ja hallitusti ja panosta eettiseen johtamiseen. Antihauras tekoälyorganisaatio vahvistuu murrosten keskellä ja vaikuttaa positiivisesti myös ihmisiin ja ympäröivään maailmaan.
Saatat pian huomata, kuinka epäröivät ilmeet muuttuvat oivalluksiksi ja uteliaaksi määrätietoisuudeksi, ja tekoälymurros kilpailukyvyn vauhdittajaksi.
Artikkelin linkit ja lähteet
Tietoa kirjoittajasta
Piditkö tästä artikkelista? Tilaa ilmoitukset uusista Tekoälyfoorumin julkaisuista suoraan sähköpostiisi. Arvostamme myös valtavasti, mikäli jätät meille arvostelun Googlessa. Kiitos. 💙
Comments