Kunstig intelligens kan utradere menneskene


Trond Eilertsen
Publisert 2. november 2015, kl. 10:39

I følge Stephen Hawking kan kunstig intelligens føre til at menneskene som rase blir utradert.

Få, om noen, har bidratt til å forstå universet bedre enn Stephen Hawking. Nå advarer han mot at kunstig intelligens kan føre til at det ikke lenger er mennesker på jorden. Hvordan kan det være mulig?

Advarselen fra Steven Hawking

Tech035

Hawking er anerkjent for sin forståelse av universet med sorte hull og singulariteter med uendelig massetetthet og gravitasjon. Hawking er en stemme som er respektert både innen vitenskapens verden og blant folk flest.

Hawking advarte mot at uavhengige kunstige intelligenser kan gjøre ende på menneskeheten slik vi kjenner den i dag. De anstrengelsene vi nå legger ned nå for å utvikle ”tenkende maskiner” utgjør en trussel for hele vår eksistens i følge kosmologen. Under en tilstelning i London der han snakket om en ny kommunikasjonsform, fortalte han at:

”De enkle formene for kunstig intelligens som vi allerede har i dag, har vist seg å være svært nyttige. Men utviklingen av full kunstig intelligens kan vise seg å være å spille rulett med den hele menneskelige rasen”

Uttalelsen kom som svar på et spørsmål som ble stilt ham om den nye kommunikasjonsteknologien han benytter – som nettopp involverer en grunnleggende form for kunstig intelligens.

Hawking lider av ALS (amyotrofisk lateralsklerose), en progressiv nevrologisk lidelse, og kunstig intelligens er en del av den teknologien som gjør ham i stand til å kommunisere med omverdenen.

Systemet han bruker, et Super-Intelligent Machines: 7 Robotic Futures, ble utviklet sammen med det britiske firmaet Swiftkey. Det hjelper ham med å velge ord som han ønsker å si basert på hva han faktisk tenker. Denne teknologien er allerede anvendt som app i en smarttelefon.

Hawking nektet ikke for at det var mange fordeler med kunstig intelligens, men han var bekymret for den videre utviklingen, og mente at ytterligere forbedringer av programmet kunne føre til at ”det tar av på egen hånd, og gjenskaper seg selv i stadig økende grad”.

Menneskeheten er begrenset av langsom evolusjon, sier Hawking, og har derfor ingen mulighet for å konkurrere med kunstig intelligens. Han viste sin bekymring over å skulle skape noe som overgår mennesker og viste til sin aller siste oppgradering av den teknologien han selv bruker, en teknologi som er utviklet av Intel i løpet av de tre siste årene, og som vil tillate ham å skrive ti ganger raskere og på en langt enklere måte kommunisere med venner, familie og sine studenter.

Plattformen som nylig er blitt utviklet, og som er spesielt tilrettelagt for Hawking, har fått navnet Assistive Context Aware Toolkit (ACAT). Den benytter Hawkings eksisterende kjevesensor som avleses av en infrarød svitsj som er montert på brillene hans. Det er dette som gjør at han kan velge et symbol på datamaskinen, og som betyr at han ikke trenger å skrive opp til 20 % så mange symboler som vanlig.

Hawking sier at ”Medisiner har ikke vært i stand til å helbrede meg, så jeg må stole på at det er teknologien som hjelper meg både til å kommunisere og holde meg i live. Utviklingen av dette systemet har potensial til å forbedre livene til handicappede mennesker og leder an i prosessen i forhold til menneskelig interaksjon og muligheten for å overskride de hindringene som en gang stod i veien for kommunikasjon”.

Hawking’s innlegg kan oppsummeres på denne måten: Så snart en maskin virkelig er i stand til å tenke, er den også selv i stand til å gjøre forbedringer på egen hånd og gradvis bli mer og mer dyktig og intelligent. Men samtidig understreket han andre sider ved teknologien som kan være til stor fordel:

”Med de forbedringene som nå er gjort, er jeg i stand til å skrive mye raskere, og det gjør at jeg fortsatt kan undervise, skrive forskningsartikler og bøker, og mye lettere kunne kommunisere med venner og familie. Dette nye systemet forandrer hele mitt liv, jeg håper at det vil tjene meg til det beste også de neste 20 årene”.

Ikke bare Hawking

Professor Hawking er ikke alene om å frykte en fremtid med kunstig intelligens. Elon Musk, direktør for romfartsbedriften SpaceX og Tesla Motors har advart mot at kunstig intelligens en dag kan bli mer truende enn atomvåpen.

Han uttalte dette i en tale han holdt ved MIT (Massachusetts Institute of Tecnhology) på AeroAstro’s Centennial Symposium i oktober. Han beskrev kunstig intelligens som ”vår tids største eksistensielle trussel”. Han fortsatte: ”Etter min mening bør vi være uhyre forsiktige med utviklingen av kunstig intelligens. Hvis jeg ble spurt om hva jeg mente var vår største eksistensielle trussel, så er det nettopp dét. Jeg er mer og mer tilbøyelig til å mene at det burde være en overordnet kontrollinstans som regulerer utviklingen, kanskje både på et nasjonalt og internasjonalt nivå, bare slik at vi kan være sikre på at vi ikke gjør noe virkelig dumt. Vi flørter med en demon når vi utvikler kunstig intelligens. Du har kanskje hørt historier hvor en fyr med et pentagram og hellig vann er viss på at han har kontroll over demonen? Vel, han tok feil…”.

Musk twitret senere at ”La oss håpe at vi ikke bare er en biologisk oppladning til en digital superintelligens. Beklageligvis ser dette ut til å bli en stadig mer reell fremtid”.

Forhold vi bør være oppmerksomme på

Matthew Sparkes skriver i The Telegraph at i hovedsak er det fire måter teknologien kan hindre den menneskelige rasen:

Kunstig intelligens

I tillegg til den advarselen Hawking kommer med, kan vi et øyeblikk stanse opp og tenke over den superintelligente softwaren vi allerede har i dag. Hva vil skje dersom denne teknologien bare blir smartere og smartere?

”Hvor nærstående er en grunnleggende maskin som tenker selv? Enkel kunstig intelligens er utviklet for å designe elektriske kretser som vi ikke helt forstår. Noen antennekonstruksjoner er produsert av genetiske algoritmer som et eksempel, og de jobber bedre enn dem som er utviklet av mennesker – og vi er ikke alltid sikre fordi de rett og slett er for komplekse for oss”.

Feilslått vitenskap

Feil kan alltid skje. Frykten for å gjøre feil under utviklingen av atomvåpen, i tillegg til atomreaktorer, er stadig økende. Resultatet av en feil kan bli skjebnesvanger og føre til utslettelse av hele menneskeheten.

En grå eminense

3D-printerteknologien er i rask utvikling. Vitenskapfolk utvikler til og med 3D-printere som kan duplisere seg selv gjennom å printe ut delkomponenter for en annen maskin.

”Forestill dere en maskin som ikke bare er mikroskopisk liten, men på nanonivå, og som er i stand til å gjøre dette. Den er så liten at den kan bygge atomer ved hjelp av molekyler. Dette kunne føre til en usedvanlig utvikling både innen produksjon og medisin: Dersom du injiserer noen få tusen i en pasient, vil de kunne omdanne kreft til ufarlig væske. Millioner kunne flyte rundt i motoroljen i bilen din, erstatte utslitt metall og vitale komponenter og fjerne behovet for menneskelig vedlikehold”.

Klimaforandringer

De fleste av oss er ikke tilstrekkelig oppmerksomme på den effekten våre handlinger har på klimaet. Tankeløsheten er i ferd med å føre til degradering av de klimatiske systemene våre. Og moder natur en ressurs som menneskene ikke kan regne med.

Det harmoniske scenariet

En nylig studie fra University of Oxford antyder at en tredjedel av jobbene i Storbritannia kunne være erstattet av maskiner i løpet av de to neste tiårene.

Dette kan virke som skremmende statistikk, men hva om teknologien kan benyttes på en harmonisk måte? Da ville vi også ha muligheten for å skape en bedre fremtid for oss alle. Forutsetningen er at vi skifter tankesett og hvordan vi ser på verden, at vi tar ansvar for å integrere teknologien i våre daglige liv på en hensiktsmessig måte uten at den skader oss.

Noe å legge til i denne saken? Del i kommentarfeltet nedenfor.

DelPaFB DelPaFB