top of page

Kolumni | Frankensteinista yliälyyn: Kuinka sääntely voi kesyttää pelkomme?

Writer: Netta HeikkiläNetta Heikkilä

Kirjoittaja: Netta Heikkilä, toimitusjohtaja, muutosjohtamisen asiantuntija ja yrittäjä


🎧 Kuuntele kirjoitus alta! Tekoälyfoorumi julkaisee kaikki jutut myös audiona. Kuuntele milloin vain, missä vain – vaikka puhelimen näyttö lukittuna.



 
Hymyilevä henkilö mustassa paidassa ristissä käsivarret edessä. Taustalla sinisiä ja vihreitä siksak-viivoja harmaalla pohjalla.
Kirjoittaja Netta Heikkilä toimii Legitin toimitusjohtajana ja tunnetaan tekoälyn ja teknologisen muutoksen asiantuntijana sekä aktiivisena keskustelijana. Hän työskentelee muutosjohtamisen ja tekoälyn käyttöönoton parissa konsulttina ja kouluttajana. Lisäksi hän kirjoittaa ja luennoi teknologian herättämistä yhteiskunnallisista kysymyksistä sekä muutoksesta käytännönläheisesti.

Miksi pelkäämme teknologiaa?


Psykologisesti ihminen pelkää eniten sitä, mikä haastaa hänen perustavia käsityksiään itsestään ja ihmisyydestä. 1970-luvulla keskustelu koeputkihedelmöityksestä ja alkiotutkimuksesta osui herkkään kohtaan: käsitykseemme ihmisen kyvystä luoda elämää. Samoin tekoäly koskettaa tänä päivänä käsitystämme omasta ihmisyydestämme ja arvostamme: se haastaa paitsi ammatti-identiteettimme ja tapamme toimia, myös ajatuksemme ihmisen ainutlaatuisuudesta ja älykkyydestä.

Verity Harding käsittelee tekoälyn ja koeputkihedelmöityksen välistä analogiaa kirjassaan "AI Needs You: How We Can Change AI's Future and Save Our Own". Teoksessa kuvataan, kuinka teknologisten vallankumousten, kuten IVF:n, sääntelystä voidaan ottaa oppia tekoälyn hallintaan. Ja toden totta, analogia koeputkihedelmöitys- ja tekoälyteknologian välillä ei ole kaukaa haettu – myöskään uhkakuvien osalta.


"Ihminen ei saa leikkiä jumalaa"


Kun koeputkihedelmöitys (IVF) otettiin käyttöön 1970-luvun lopulla, Iso-Britanniassa kohistiin. Teknologian pelättiin rikkovan perustavanlaatuisia moraalisia ja luonnollisia rajoja. Tieteelliset innovaatiot kohtaavat usein vastustusta, joka juontaa juurensa kulttuurisiin kertomuksiin ja myytteihin. Myös IVF-teknologian tapauksessa science fiction -tarinat vaikuttivat ihmisten käsityksiin biotieteistä: IVF nähtiin askelena kohti "Frankensteinin lapsia". Nähtiin ettei ihmisen tulisi yrittää luoda elämää teknologian avulla ja näin leikkiä jumalaa. Jopa kuuluisat tieteilijät, kuten DNA:n rakenteen löytänyt James Watson, vastustivat koeputkihedelmöitystä äänekkäästi ja pitivät sitä epäeettisenä.


"Kone ei saa leikkiä ihmistä"


Myös tämän päivän tieteilijät keskustelevat tekoälyteknologian eettisistä kysymyksistä. On erilaisia huolia liittyen AGI:iin ja itseohjautuviin agentteihin. Me tavan tallaajat kuitenkin pelkäämme epämääräisemmin: elokuvista tuttua yliälyä, joka ottaa vallan ihmisistä peruuttamattomin seurauksin. Juuri kuten Frankenstein-ilmiötä pelättiin.


Frankenstein ja robotti pelaavat lautapeliä puisella pöydällä. Molemmat ovat kädenväännössä. Betoniseinä taustalla. Mieliala on keskittynyt.
Tekoälykuvitus (ChatGPT:n kuvageneraattori).

Tekoäly herättää alkukantaista ahdistusta, koska se osuu suoraan siihen epävarmuuteen, jonka moni meistä tuntee jo valmiiksi – pelkoon siitä, että olemme korvattavissa, että meidän tekemällämme työllä tai ajatuksillamme ei olekaan merkitystä.

Tekoälyn kohdalla pelko kohdistuu ihmisyyden ja ihmisen olemassaolon lisäksi toiseen perustavanlaatuiseen ominaisuuteen: älykkyytemme ainutlaatuisuuteen. Tekoäly herättää alkukantaista ahdistusta, koska se osuu suoraan siihen epävarmuuteen, jonka moni meistä tuntee jo valmiiksi – pelkoon siitä, että olemme korvattavissa, että meidän tekemällämme työllä tai ajatuksillamme ei olekaan merkitystä. Kun teknologia näyttää kykenevän samaan tai jopa parempaan kuin me itse, se horjuttaa minäkuvaamme ja syventää pelkoamme siitä, että emme olekaan ainutlaatuisia tai arvokkaita. Onko älyni, luovuuteni ja ajatteluni – kaikki se, mitä pidän itseni ytimenä – sittenkin vain algoritmeja, jotka kone voi jäljitellä?

Elkäät peljätkö, säännelkää T Margaret


IVF:ään liittyvät pelot voitettiin eivätkä uhkakuvat käyneet toteen, kiitos järkevän sääntelyn. Kattavan sääntelykehikon ansiosta IVF-teknologia valjastettiin turvalliseksi innovaatioksi, joka on tuonut onnea miljoonille ihmisille.

Ratkaisevassa roolissa oli Margaret Thatcherin hallinnon perustama Warnock-komitea, joka 1980-luvun alussa loi maailman johtavan sääntelykehikon IVF:n ympärille. Komitea kuunteli asiantuntijoiden lisäksi myös tavallisia kansalaisia ja tunnisti, että teknologian pelkoihin voidaan vastata vain avoimuudella ja selkeillä rajoilla. Sääntely ei tukahduttanut innovaatiota, vaan päinvastoin vapautti sen kukoistamaan, koska sekä tutkijat että yhteiskunta tunsivat pelisäännöt. Tänä päivänä koeputkihedelmöitysteknologian avulla on saatettu maailmaan arviolta jopa 13-17 miljoonaa lasta – miljoonia tarinoita onnesta, jotka eivät olisi koskaan olleet mahdollisia, jos pelot olisivat saaneet vallan.


Pelko itsessään ei ole vihollinen, vaan arvokas viesti siitä, että tarvitsemme selkeät ja turvalliset pelisäännöt kohdataksemme epävarmuuden rakentavasti.

Tekoälyn sääntely Warnock-hengessä


Pelko itsessään ei ole vihollinen, vaan arvokas viesti siitä, että tarvitsemme selkeät ja turvalliset pelisäännöt voidaksemme kohdata epävarmuuden rakentavasti. Parhaassa tapauksessa EU:n tekoälysääntelyn ympärille kehittyy oma maailmanlaajuinen Warnock-komitea, joka kuuntelee tavallisten kansalaisia ja varmistaa, että voimme hyödyntää tekoälyn mahdollisuudet ilman pelkoja.


Koeputkihedelmöityksen historia tarjoaa lohdullisen esimerkin: kun sääntely tehdään oikein, se ei tukahduta teknologiaa. Se vapauttaa ja mahdollistaa – joillekin jopa sen kaikkein hartaimman toiveen toteutumisen.

 

EU:n tekoälysäädös (AI Act) pyrkii varmistamaan tekoälyn turvallisen ja eettisen käytön Euroopassa. Sen keskeisenä tavoitteena on suojella kansalaisten oikeuksia ja turvallisuutta sekä luoda selkeät pelisäännöt tekoälyn kehitykselle ja käytölle. Käytännössä säädös määrittelee tekoälyjärjestelmien riskiluokat ja niihin liittyvät vaatimukset sekä edistää läpinäkyvyyttä ja vastuullisuutta. Säädös astui voimaan 1. elokuuta 2024. Sen ensimmäiset vaatimukset astuivat voimaan helmikuussa 2025, ja täysi soveltaminen alkaa elokuussa 2026.

 

Piditkö tästä jutusta? Tilaa ilmoitukset uusista Tekoälyfoorumin julkaisuista suoraan sähköpostiisi. Arvostamme myös valtavasti, mikäli jätät meille arvostelun Googlessa. Kiitos. 💙



Comments


bottom of page