Kirken og kunstig intelligens
Hva sier Den katolske kirke om kunstig intelligens? I møte med den teknologiske revolusjonen løfter Kirken frem menneskeverd, etikk og sjelens frelse. KI er et verktøy, ikke en erstatning for menneskelig tanke, ansvar eller empati.
Av Peder Josef Foss, 27. mai 2025
Den nylig valgte Pave Leo XIV forklarte selv sitt navnevalg: «Det er hovedsakelig fordi Pave Leo XIII i sin historiske encyklika Rerum novarum (1891) behandlet samfunnspørsmålet knyttet til den første store industrielle revolusjonen. Kirken tilbyr i våre dager sin sosiallæres rikdom for å imøtekomme en annen industriell revolusjon og utviklingene innen kunstig intelligens, som er årsak til nye utfordringer for ivaretagelsen av menneskeverd, rettferdighet og arbeidsliv.»[1] Kunstig intelligens, på grunn av de store konsekvensene den vil få og allerede har for mennesket av i dag, vil også påvirke Den katolske kirkes forkynnelse og virke til sjelenes frelse. Hva har Kirken allerede sagt om kunstig intelligens og hvilke misforståelser ønsker hun at vi skal unngå?
Les også:
Når KI forfalsker virkeligheten: Kirken og kampen for sannhet
Notert – KI, pave Leo og bistand
Kildene
Magisteriets viktigste uttalelse om KI til nå er notatet fra Trosdikasteriet Antiqua et nova (28. januar 2025). Dokumentet forklarer hva KI er, skisserer forskjellen mellom en kunstig og menneskelig intelligens, og behandler en rekke etiske utfordringer, alt fra mellommenneskelige forhold og sosiale medier til bedrageri og krigføring. Kirken har også uttalt seg om teknologi og samfunnet ved mange anledninger, bl.a. i encyklikaen Rerum novarum (1891), konstitusjonen Gaudium et spes (2. Vatikankonsil, 1965), encyklikaene Caritas in veritate (2009) og Laudato Si’ (2015).
Hva er kunstig intelligens?
KI er et samlebegrep som omfatter digitale teknologier som kan utføre avanserte oppgaver man ofte assosierer med menneskelig intelligens.[2] Til forskjell fra et klassisk dataprogram, som er fullstendig definert og forutbestemt i sin oppførsel, er KI dynamisk – den kan tilpasse og forandre seg ved såkalt «læring», eller i det minste en form for autonomi.[3] Ved hjelp av statistiske metoder anvendt på store mengder data samt en mulighet for å integrere ny informasjon, kan en KI-algoritme over tid «lære seg» å etterligne menneskelig intelligens i kognitive oppgaver.
Det er denne tilsynelatende autonomien, at programmet kan «gjøre valg» som ikke er forutbestemt av designeren eller brukeren, som fascinerer og som det er viktig å forstå. Begrepet «kunstig intelligens» er i seg selv misvisende, for maskiner gjør på ingen måte det mennesker gjør når de tenker. En KI-algoritme har selvoppdaterende strukturer som forandrer seg som følge av ny informasjon. Over tid og med finjustering av systemet kan den gi svar som ligner på de den har sett allerede og til en viss grad også «forutsi» svar på spørsmål den ikke har blitt stilt med imponerende treffsikkerhet.
Et verktøy
Alle teknologiske fremskritt er «meningsfylte uttrykk for menneskets herredømme over skaperverket»[4] (se 1 Mos 1,28). KI er intet unntak. I seg selv er den hverken god eller ond; det kommer an på hvordan den brukes. «Den må forstås som hva den er: et verktøy, ikke en person.»[5] Debatten om hvorvidt KI er godt eller ondt i og for seg bygger på en misforståelse; det er som å diskutere hvorvidt en spade eller en motorsykkel er god eller ond. Utenom verktøy som bare er nyttige for å utføre handlinger som er malum in se (innbyrdes onde), som f.eks. et torturinstrument eller et prevensjonsmiddel, har alle menneskelige oppfinnelser et gyldig bruksområde. Et våpen kan brukes til å drepe en uskyldig eller til å forsvare de uskyldige i en rettferdig krig; en hammer kan slå inn spiker eller til å drive hærverk. KI er ikke annet enn et avansert verktøy som kan forlenge og skjerpe bruken av den menneskelige intelligens. Det viktige spørsmålet er: hvordan kan KI brukes til menneskets beste som fellesskap og individ?
Forskjellen mellom KI og menneskelig intelligens
Det er på grunn av denne misforståelsen at Kirken advarer mot «å antropomorfisere» KI, dvs. å tilegne den menneskelige egenskaper, spesielt i forhold til intelligens:
Hos mennesker er intelligens en egenskap som gjelder personen i sin helhet; brukt i sammenheng med KI, forstås «intelligens» funksjonalistisk, som oftest med antagelsen om at menneskesinnets særegne aktiviteter kan brytes ned i digitaliserte steg som maskiner kan gjenskape … I KIs tilfelle bedømmes et systems «intelligens» på metodologisk, men òg reduksjonistisk vis, basert på dens evne til å produsere passende svar – i dette tilfelle, de svar man venter seg av den menneskelige forstand – uansett hvordan disse svarene genereres. KIs avanserte evner gir den en velutviklet evne til å utføre oppgaver, men ikke til å tenke.[6]
KI bygger på avansert statistikk og kløktig utnyttelse av datamaskiners raske utregningsevne, men kan hverken reflektere, tenke eller forstå. En maskin følger ikke den logiske og kreative prosessen mennesker følger når de setter sammen, konfronterer og utvikler ideer; den mottar elektroniske signaler og omdanner dem til andre elektroniske signaler som kun er meningsfulle for mennesker med reell intelligens.
Man kan derfor aldri stole på KI som om den begriper hva den gjør og kan ta ansvar for det. At KI i praksis overgår et menneske i både hurtighet og presisjon er ikke overraskende, siden mennesker i motsetning til maskiner har kroppslige behov, kan glemme og bli slitne. Det betyr ikke at KI tenker bedre enn et menneske, men at mennesket gjennom maskinen har fremstilt et statistisk mønster som omtrent alltid sammenfaller med menneskets kognitive prosess på et bestemt område. Imponerende og nyttig er det sikkert, men tenking er det ikke.
Denne forskjellen er ikke bare teoretisk. De siste årene har man flere ganger sett at KI benyttes ukritisk med katastrofale resultater: ChatGPT genererte uekte rettssaker i en tekst brukt av en advokat i New York[7], Googles og Microsofts samtaleroboter diktet opp en våpenhvile mellom Israel og Gaza[8], og en medisinsk samtalerobot måtte tas ned fordi den gav skadelige helseråd til mennesker med spiseforstyrrelser[9]. Over tid er det trolig at slike feil vil skje sjeldnere, men det illustrerer hvorfor man aldri kan overlate en oppgave fullstendig til en KI uten å verifisere og overvåke. Mellom mennesket og KI er det en ontologisk forskjell når det gjelder rasjonalitet.
Empati og relasjon
Likedan er det med KI og dens evne til å etterligne menneskelig kommunikasjon. I Antiqua et nova bemerker (n. 61):
«[T]il tross for bruken av antropomorfiserende språk kan ingen KI-applikasjon virkelig erfare empati. Følelser kan ikke reduseres til ansiktsuttrykk eller genererte svar på innstrukser; de gjenspeiler måten en person, som helhet, forholder seg til verden og til sitt eget liv, hvor kroppen har en sentral plass. Sann empati fordrer evnen til å lytte, erkjenne den andres absolutte eneståenhet, motta deres annethet og begripe betydningen også av deres stillhet.»
Å forveksle reell menneskelig kontakt med KIs evne til å etterligne den er svært farlig. At mange KI-algoritmer bygger på denne modellen er en potensiell risiko: Det kan få enkelte til å søke mellommenneskelig kontakt hos en maskin (menneskeliggjøre maskinen), eller det kan få oss til å behandle andre mennesker slik vi gjør KI, som verktøy (mekanisere mennesket). I tillegg er det fra nå av usikkert hvorvidt det man ser på internett virkelig er produsert av et menneske. Mistilliten og skepsisen dette naturligvis medfører vil være til byrde for samfunn som allerede er delte og individualistiske. «Dersom vi erstatter forholdet til Gud og til andre med interaksjoner med teknologi risikerer vi å erstatte ekte samvær med et livløst bilde (Sal 106,20; Rom 1,22-23)»[10]. KI kan ikke besvare menneskets behov for vennskap, den kan ikke lindre dets sorg eller gi det den lykken det er skapt for.
Konklusjon Kirken er ingen statlig eller vitenskapelig organisasjon, og hun påberoper seg ingen særegen faglig kompetanse innen nevrale nett eller store språkmodeller. Derimot besitter hun, i kraft av åpenbaringen hun har mottatt fra Gud og grunnet på i århundrenes løp, dyp innsikt i sannheten om menneskets skapelse, frelse og kall til evig liv. Kirken, som er «i verden», men ikke «av verden» (jfr. Joh 17), skal helliggjøre hele mennesket og innrette alle dets handlinger mot det sanne, det gode og det vakre. Det blir især opp til Peters etterfølger, som har i oppgave å fø Herrens får, å veilede de troende og alle mennesker av god vilje gjennom de potensielt store omveltningene de teknologiske fremskrittene vi er vitne til kan medføre. Midt i all forvirringen og jaget etter kunnskap må vi desto ivrigere søke den evige Visdom som er all forstands kilde og endemål: «Jesus Kristus er i går og i dag den samme, ja, til evi
[1] Pave Leo XIV. Address of the Holy Father to the College of Cardinals. Vatikanet, 10. mai 2025. Tilgjengelig fra: https://www.vatican.va/content/leo-xiv/en/speeches/2025/may/documents/20250510-collegio-cardinalizio.html [lest 19. mai 2025].
[2] Trosdikasteriet. Antiqua et nova. Vatikanet, 28. januar 2025. Tilgjengelig fra: https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html#_ftnref7 [lest 19. mai 2025].
[3] Sheikh, H., Prins, C., Schrijvers, E. (2023). Artificial Intelligence: Definition and Background. In: Mission AI. Research for Policy. Springer, Cham. https://doi.org/10.1007/978-3-031-21448-6_2
[4] Den katolske kirkes katekisme, n. 2293
[5] Pave Frans, Address at the G7 Session on Artificial Intelligence in Borgo Egnazia (Puglia) (14 June 2024): L’Osservatore Romano, 14 June 2024, 2.
[6] Antiqua et nova, n.10-12.
[7] Bohannon, M. (2023, 8. juni). Lawyer used ChatGPT in court and cited fake cases—A judge is considering sanctions. Forbes. https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge-is-considering-sanctions/
[8] Ghaffary, S. (2023, 11. oktober). Google and Microsoft chatbots falsely claim there’s a ceasefire in Israel. Bloomberg. https://www.bloomberg.com/news/newsletters/2023-10-11/google-and-microsoft-chatbots-falsely-claim-ceasefire-in-israel
[9] Staff Writer. (2023, 5. juni). NEDA suspends AI chatbot for giving harmful eating disorder advice. Psychiatrist.com. https://www.psychiatrist.com/news/neda-suspends-ai-chatbot-for-giving-harmful-eating-disorder-advice/
[10] Antiqua et nova, n. 63