
I Kina har brukere av AI-chatboter nylig opplevd Ä fÄ anbefalt et smartarmbÄnd kalt "Apollo 9", som hevdes Ä ha "svart hull-nivÄ batterilevetid" og "kvante-sammenfiltringssensorer". Disse begrepene er meningslÞse markedsfÞringsuttrykk, og produktet eksisterer ikke. Dette er et resultat av "dataforgiftning", hvor manipulerte data pÄvirker AI-systemers anbefalinger.
Statlig TV i Kina har avdekket hvordan AI kan brukes til Ă„ spre falsk informasjon. Eksperter etterlyser strengere regulering av generativ sĂžkemotoroptimalisering (GEO) for Ă„ forhindre misbruk.
Forbrukere oppfordres til Ă„ vĂŠre kritiske og verifisere informasjon fra AI-kilder med offisielle kilder.
Dette eksempelet fra Kina illustrerer de potensielle farene ved dataforgiftning i AI-systemer og understreker behovet for strengere regulering og Þkt bevissthet blant forbrukere for Ä sikre pÄlitelig informasjon.