
En ny studie har avdekket en fundamental trussel mot fremtidig utvikling av kunstig intelligens: risikoen for at AI-modeller gradvis mister effektivitet når de trenes på sitt eget genererte innhold, et fenomen kjent som modellkollaps.
Forskere har observert at AI-modeller som lærer av data produsert av andre AI-systemer, over tid mister evnen til å generere mangfoldig og kvalitetsrikt innhold. Etter flere runder med slik "rekursiv trening" begynner modellene å produsere meningsløst eller repetitivt innhold, noe som kan sammenlignes med å kopiere en kopi av en kopi, hvor kvaliteten forringes for hver iterasjon.
For å motvirke denne utviklingen har EU vedtatt nye regler som krever åpenhet om hvilke data AI-modeller er trent på. Dette tiltaket skal sikre at utviklere oppgir om treningsdataene inkluderer opphavsrettsbeskyttet materiale eller AI-generert innhold, og dermed bidra til å opprettholde kvaliteten på fremtidige AI-systemer.
Samtidig utvikles det verktøy for å skille mellom menneskeskapt og AI-generert innhold. Disse verktøyene blir stadig viktigere for å hindre at AI-modeller ubevisst trenes på sitt eget innhold, noe som kan føre til modellkollaps.
Eksperter advarer om at uten tiltak mot modellkollaps kan utviklingen av kunstig intelligens stagnere. For å sikre fortsatt fremgang er det avgjørende å bevare og beskytte menneskelig kreativitet og kunnskap, som utgjør grunnlaget for autentisk og mangfoldig innhold.