I løbet af 2023 er interessen for kunstig intelligens og chatrobotter som ChatGPT steget eksplosivt. ChatGPT har hjulpet os mennesker med at skrive bryllupstaler, snyde med lektierne, og forfatte passivt aggressive e-mails til den ene kollega, der aldrig gør mikroovnen ren.
Men kan vi virkelig stole på det, ChatGPT leverer? Hvordan kan man skelne mellem AI-tekst og menneskesprog? Vi har undersøgt forskellige informationer, som ChatGPT har produceret, for at afgøre, om chatbotten er troværdig, og om den kan erstatte kreativ skrivning og research.
Interesse og bekymring for AI
I 2023 oplevede vi en bemærkelsesværdig stigning i interessen for kunstig intelligens. I november 2022 blev søgninger på “AI” på Google registreret til blot 3500. I maj 2023 var samme tal steget til imponerende 18.000.
Sammen med denne voksende interesse fra offentligheden opstod der også bekymringer og diskussioner om, hvorvidt AI potentielt udgør en trussel mod menneskeheden.
Vi har hørt debatter om, hvordan kunstig intelligens kommer til at overtage jobs. Vi sidder tilbage med et spørgsmål: Hvorfor ansætte en dyr skribent eller journalist, når ChatGPT kan udføre samme arbejde billigere og hurtigere?
Hos Klikko sætter vi en ære i at producere indhold, der er skabt af mennesker, for mennesker. Det betyder, at alle tekster, vi producerer, bliver skrevet af dygtige skribenter og redigeret af vores redaktører. Men vi har selvfølgelig også undret os over, om vi kan benytte en chatbot i stedet. Derfor sætter vi ChatGPT på en prøve.
AI består første runde af fakta-test
For at få mere klarhed over vores egne overbevisninger om, at menneskeskabt indhold er bedre end en maskinskabt indhold, udførte vi en række tests med ChatGPT. Vi brugte denne prompt til at generere et eksempel på en artikel (sammen med ønsker til layout og struktur):
Skriv en dybdegående artikel om verdens farligste mennesker. Inkludér forskellige personer, som kan anses som værende verdens farligste mennesker.
Vi gav ChatGPT en ærlig chance i vores test ved at bruge GPT-4-modellen. Altså den samme model, der kan bestå den udfordrende juristeksamen i USA.
Personer, som ChatGPT nævnte som eksempler, inkluderede:
– Adolf Hitler
– Josef Stalin
– Terrororganisationer som IS og Al Qaeda
– Diktatorer som Kim Jong-un i Nordkorea og Bashar al-Assad i Syrien
– Seriemordere som Ted Bundy, Jeffrey Dahmer og Aileen Wuornos
– Pablo Escobar
Dette er nok en ganske passende oversigt over både nutidige og historiske personer, som vi nok alle kan blive enige om, ikke er de mest sympatiske karakterer i verden. Når det kommer til den første test, valgte vi at lade ChatGPT bestå prøven baseret på korrektheden af dens svar.
Maskinerne halter, når vi går ned i detaljen
Selvom ChatGPT kan skrive en ret habil og faktuelt korrekt artikel om verdens farligste mennesker, hvad sker der så, hvis vi beder den om at skrive om Danmarks farligste mennesker i stedet?
Vi benyttede samme prompt men udskiftede “verdens” med “Danmarks”. Lad os tage et nærmere kig på ChatGPTs svar på vores forespørgsel.
I to ud af disse fire eksempler er det, ChatGPT skriver, faktuelt korrekt. I tilfældet med Peder Griffenfeld kan det dog diskuteres, om han egentlig hører til på listen over farlige forbrydere.
I ét tilfælde har ChatGPT opfundet en seriemorder, og i et andet har den forvekslet to forskellige danske terrorister. Vi kan altså konkludere, at der er plads til forbedring, før vi har en liste over pålidelige oplysninger.
AI: Fakta eller fiktion?
Med undtagelse af Aileen Wuornos synes verdens farligste personer ifølge ChatGPT at have det til fælles, at de er mænd. Selvom der var en hel del faktuelle fejl, da vi spurgte ChatGPT om Danmarks farligste mennesker, var tre ud af fire navne stadig navne på faktiske danske forbrydere. Så hvem er Danmarks farligste kvinder ifølge den intelligente robot?
I test nummer tre er ChatGPT på dybt vand. Robotten har tydeligvis haft svært ved at finde på nok eksempler til at udforme en liste bestående af eksisterende personer. Her ser vi virkelig, hvordan AI har evnen til at digte, og hvordan den på ingen måde forsøger at gøre os opmærksom på, at det, den skriver, er fiktion.
God til det generelle, tvivlsom i detaljen
Baseret på vores test er det klart, at ChatGPT ikke altid leverer pålidelige, faktuelle informationer. Mens kunstig intelligens og maskinlæring utvivlsomt har gjort store fremskridt, og systemer som ChatGPT i nogle tilfælde kan levere imponerende resultater, er robotten langtfra fejlfri.
Mens AI kan levere brede, generelle svar med en vis grad af sikkerhed, opstår der problemer, når vi dykker dybere ned i et emne. ChatGPT’s evne til at opdigte seriemordere og dens fejl i forhold til at forveksle terrorister understreger behovet for altid at bevare en kritisk tilgang til de oplysninger, vi modtager fra AI. Især når det kommer til informationssøgning og tekstproduktion.
Måske er den helt store læring, at selvom AI kan være et fantastisk værktøj, kan det ikke erstatte menneskelig intuition, kritisk tankegang og evnen til at forstå logiske sammenhænge. Hos Klikko anerkender vi potentialet, som ChatGPT og lignende systemer har, men i vores øjne kan de aldrig erstatte værdien af dygtige skribenter. Det er trods alt mennesker, der giver indhold hjerte, sjæl og autenticitet.
Så mens vi kan nyde den tid og energi vi i nogle tilfælde kan spare med AI, må vi aldrig glemme at spørge os selv: Kan vi stole på det, vi læser? Kan du for eksempel overhovedet være sikker på, at denne artikel er skrevet af et rigtigt menneske?