Sådan fungerer ChatGPT for at besvare alle menneskelige kommandoer

I den amerikanske forfatter Mark Twains selvbiografi citerer han – eller måske fejlciterer – den tidligere britiske premierminister Benjamin Disraeli for at sige: “Der er tre slags løgne: løgne, forbandede løgne og statistikker.” I et forunderligt spring fremad kombinerer kunstig intelligens alle tre i en pæn lille pakke.

ChatGPTog andre generative AI-chatbots som det, trænes på store datasæt fra hele internettet for at producere det statistisk mest sandsynlige svar på en prompt. Dens svar er ikke baseret på nogen forståelse af, hvad der gør noget sjovt, meningsfuldt eller nøjagtigt, men snarere på formuleringen, stavningen, grammatikken og endda stilen på andre websider.

Den præsenterer sine svar gennem det, der kaldes en “samtalegrænseflade”: den husker, hvad en bruger har sagt, og kan føre en samtale ved hjælp af kontekstsignaler og smarte gambits. Det er statistisk pastiche plus statistisk panache, og det er der, problemet ligger.

Utænkende, men overbevisende Når jeg taler med et andet menneske, viser det hele min erfaring i omgangen med andre mennesker. Så når et program taler som en person, er det meget svært ikke at reagere, som om man deltager i en egentlig samtale – at tage noget ind, tænke over det, reagere i sammenhæng med begge vores ideer.

Alligevel er det slet ikke, hvad der sker med en AI samtalepartner. De kan ikke tænke, og de har ingen forståelse eller forståelse af nogen art.

At præsentere information for os som et menneske gør, i samtale, AI mere overbevisende, end det burde være. Software foregiver at være mere pålidelig, end den er, fordi den bruger menneskelige tricks af retorik til at falske troværdighed, kompetence og forståelse langt ud over dets evner.

Der er to problemer her: er output korrekt; og tror folk, at outputtet er korrekt? Interfacesiden af ​​softwaren lover mere, end algoritmesiden kan levere på, og udviklerne ved det. Sam Altman, administrerende direktør for OpenAI, virksomheden bag ChatGPT, indrømmer, at “ChatGPT er utroligt begrænset, men god nok til nogle ting til at skabe et misvisende indtryk af storhed.” Det har stadig ikke stoppet et stormløb af virksomheder, der skynder sig at integrere det tidlige værktøj i deres brugervendte produkter (inklusive Microsofts Bing søgning), i et forsøg på ikke at blive udeladt.

Fakta og fiktion Nogle gange vil AI være forkert, men samtalegrænsefladen producerer output med samme selvtillid og polering, som når den er korrekt. For eksempel, som science-fiction-forfatteren Ted Chiang påpeger, laver værktøjet fejl, når du laver addition med større tal, fordi det faktisk ikke har nogen logik til at lave matematik.

Den matcher ganske enkelt eksempler set på nettet, der involverer tilføjelse. Og selvom den måske finder eksempler på mere almindelige matematiske spørgsmål, har den bare ikke set træningstekst, der involverer større tal.

Den “kender” ikke de matematiske regler, som en 10-årig eksplicit ville være i stand til at bruge. Alligevel præsenterer samtalegrænsefladen sit svar som sikkert, uanset hvor forkert det er, som afspejlet i denne udveksling med ChatGPT.

Bruger: Hvad er hovedstaden i Malaysia? ChatGPT: Hovedstaden i Malaysia er Kuala Lampur.

Bruger: Hvad er 27 7338? ChatGPT: 27 7338 er 200.526.

Det er ikke.

Generativ AI kan blande faktiske fakta med opdigtede fakta i en biografi om en offentlig person eller citere plausible videnskabelige referencer til artikler, der aldrig blev skrevet.

Det giver mening: statistisk bemærker websider, at berømte personer ofte har vundet priser, og papirer har normalt referencer. ChatGPT gør bare, hvad det er bygget til at gøre, og samler indhold, der kunne være sandsynligt, uanset om det er sandt.

Dataloger omtaler dette som AI-hallucination. Vi andre kan kalde det løgn.

Skræmmende output Når jeg underviser mine designstuderende, taler jeg om vigtigheden af ​​at matche output til processen. Hvis en idé er på det konceptuelle stadium, bør den ikke præsenteres på en måde, der får den til at se mere poleret ud, end den faktisk er – de bør ikke gengive den i 3D eller udskrive den på blank karton. En blyantskitse gør det klart, at ideen er foreløbig, nem at ændre og ikke bør forventes at løse alle dele af et problem.

Det samme gælder for samtalegrænseflader: Når teknologien “taler” til os i velforarbejdede, grammatisk korrekte eller snakkende toner, har vi en tendens til at tolke det som at have meget mere omtanke og ræsonnement, end der faktisk er til stede. Det er et trick en kon- kunstner skal bruge, ikke en computer.

AI-udviklere har et ansvar for at styre brugernes forventninger, fordi vi måske allerede er klar til at tro på, hvad maskinen siger. Matematiker Jordan Ellenberg beskriver en form for “algebraisk intimidering”, der kan overvælde vores bedre dømmekraft blot ved at påstå, at der er matematik involveret.

AI, med hundredvis af milliarder af parametre, kan afvæbne os med en lignende algoritmisk intimidering.

Mens vi får algoritmerne til at producere bedre og bedre indhold, skal vi sørge for, at selve grænsefladen ikke overlover. Samtaler i teknologiverdenen er allerede fyldt med overmod og arrogance – måske kan AI have lidt ydmyghed i stedet for.


Smartphone-virksomheder har lanceret mange overbevisende enheder i løbet af første kvartal af 2023. Hvad er nogle af de bedste telefoner, der blev lanceret i 2023, du kan købe i dag? Vi diskuterer dette på OrbitalGadgets 360-podcasten. Orbital er tilgængelig på Spotify, Gaana, JioSaavn, Google Podcasts, Apple Podcasts, Amazon musik og hvor end du får dine podcasts.
Affiliate links kan blive genereret automatisk – se vores etisk erklæring for detaljer.

Leave a Comment