Ny forskning avslører risikoen ved "kognitiv overgivelse" i møte med kunstig intelligens

Vis hovedpunkter
  • Forskere ved Wharton School har identifisert fenomenet "kognitiv overgivelse", der mennesker ukritisk aksepterer AI-genererte svar.
  • I en studie med 1 372 deltakere fulgte 80 % feilaktige AI-svar uten å stille spørsmål.
  • Under tidspress falt nøyaktigheten til 12,1 %, noe som indikerer økt risiko ved hastige beslutninger med AI.
  • Personer med høy tillit til AI og lav tilbøyelighet til kritisk tenkning er mest utsatt for kognitiv overgivelse.
  • Forskere anbefaler bevissthet og opplæring for å opprettholde kritisk tenkning i samspill med AI.
Ny forskning avslører risikoen ved "kognitiv overgivelse" i møte med kunstig intelligens
Bilde er generert av KI

En nylig publisert studie fra Wharton School ved University of Pennsylvania kaster lys over et bekymringsfullt fenomen kalt "kognitiv overgivelse". Dette beskriver hvordan mennesker ukritisk aksepterer svar fra kunstig intelligens (AI), selv når disse svarene er feilaktige. Forskningen, ledet av Steven D. Shaw og Gideon Nave, involverte 1 372 deltakere som fikk tilgang til en AI-assistent. Overraskende nok fulgte 80 % av deltakerne AI-assistentens svar uten å stille spørsmål, selv når svarene var bevisst feil.

Studien introduserer begrepet "kognitiv overgivelse" for å beskrive øyeblikket når individer slutter å tenke selvstendig og i stedet lar AI ta over. Dette skjer ikke nødvendigvis fordi man velger å delegere, men fordi hjernen ubevisst gir opp. Forskerne skiller mellom "kognitiv avlastning", som er en sunn praksis hvor man bruker verktøy som kalkulatorer for å forenkle oppgaver, og "kognitiv overgivelse", hvor man blindt stoler på AI uten kritisk vurdering.

Under tidspress ble fenomenet enda mer uttalt. Når deltakerne ble utsatt for tidsbegrensninger og AI-en ga feil svar, falt nøyaktigheten til 12,1 %, noe som er lavere enn tilfeldig gjetning. Dette antyder at i situasjoner med høy stress og hastverk kan avhengighet av AI føre til katastrofale beslutninger.

Videre identifiserte forskerne at personer med høy tillit til AI og lav tilbøyelighet til kritisk tenkning er mest utsatt for kognitiv overgivelse. Derimot var personer som liker å tenke gjennom problemer og har høyere resonneringsevne mer tilbøyelige til å fange opp AI-feil. Selv med insentiver og tilbakemeldinger, overga 57,9 % av deltakerne seg fortsatt til feilaktige AI-svar, noe som understreker hvor sterkt dette fenomenet er.

Forskerne understreker viktigheten av å være bevisst på dette fenomenet og anbefaler opplæring for å opprettholde kritisk tenkning i samspill med AI. Dette er essensielt for å sikre at mennesker forblir aktive deltakere i beslutningsprosesser og ikke passivt aksepterer AI-svar uten vurdering.

Referanser

Steder

  • Philadelphia
  • USA

Personer

  • Gideon Nave
  • Steven D. Shaw