
Flere hjelpeorganisasjoner har begynt å benytte kunstig intelligens (AI) for å generere bilder som illustrerer fattigdom i sine kampanjer. Denne praksisen har ført til en debatt om etikken bak bruk av slike bilder og deres innvirkning på offentlig oppfatning.
Ifølge en artikkel i The Guardian har AI-genererte bilder av ekstrem fattigdom, barn og overlevende av seksuell vold blitt stadig mer utbredt på bildedatabaser og brukt av ledende helse-NGOer. Noah Arnold fra Fairpicture, en sveitsisk organisasjon som fokuserer på etisk bildebruk i global utvikling, uttaler: "Overalt ser vi at folk bruker det. Noen bruker aktivt AI-bilder, og andre eksperimenterer i det minste."
Arsenii Alenichev, forsker ved Institutt for tropemedisin i Antwerpen, påpeker at disse bildene ofte gjenspeiler stereotypiske fremstillinger av fattigdom, som barn med tomme tallerkener og sprukket jord. Han advarer om at slike bilder kan forsterke misvisende narrativer og påvirke offentlig oppfatning negativt.
I Norge har medieforskere uttrykt bekymring for bruken av AI-genererte bilder i media. Liv Hausken, professor i medievitenskap ved Universitetet i Oslo, understreker viktigheten av å være kritisk til slike bilder og råder folk til å unngå å dele dem ukritisk.
Videre har NTB besluttet å unngå bruk av AI-genererte bilder, med visuell redaktør Christina Dorthellinger som påpeker at sannheten kan forvrenges gjennom slike bilder. Hun uttrykker bekymring for at det blir stadig vanskeligere å skille mellom ekte og falske bilder, noe som utfordrer sannhetssøkende journalistikk.
Denne utviklingen understreker behovet for klare retningslinjer og åpenhet i bruken av AI-generert innhold, spesielt når det gjelder sensitive temaer som fattigdom og humanitær hjelp.