Ekstreme islamister og nazister har tatt i bruk kunstig intelligens (KI) for å spre sine budskap. Eksperter etterlyser tiltak som kan hindre at teknologien misbrukes.

Et eksempel på den nye metoden dukket opp etter terrorangrepet mot et konsertlokale utenfor Moskva i mars i år. Her ble over 140 mennesker drept.

I en video lagt ut på nett ble angrepet hyllet av en mann med hjelm og militære kamuflasjeklær.

– Det islamske staten (IS) har rettet et hardt slag mot Russland med et blodig angrep, sa mannen på arabisk, ifølge den private amerikanske etterretningsgruppa SITE.

Men mannen på videoen var ingen ekte leder for den ekstreme islamistbevegelsen IS. Ifølge flere eksperter var videoen laget med kunstig intelligens.

Høy kvalitet

En av dem som gransket videoen, var Federico Borgonovo ved den britiske tankesmia Royal United Services Institute.

Han sporet den tilbake til en IS-støttespiller som er aktiv i gruppas «digitale økosystem». Ifølge Borgonovo ble videoen laget med utgangspunkt i uttalelser og informasjon fra IS’ «offisielle» nyhetskanal.

Dette var ikke første gang IS brukte KI. Og sett i forhold til annen IS-propaganda, var videoen heller ikke uvanlig voldelig.

Likevel skilte den seg ut. Grunnen var den høye produksjonskvaliteten.

– Dette er ganske bra til å være et KI-produkt, sier Borgonovo til nyhetsbyrået Reuters.

– En gave til terrorister

Ikke bare ekstreme islamister, men også høyreekstremister bruker nå kunstig intelligens i økende grad på nett, ifølge eksperter.

SITE har funnet eksempler på at al-Qaida, nettverk av nynazister og en rekke andre aktører har tatt teknologien i bruk.

– Det er vanskelig å overdrive hvilken gave KI er for terrorister og ekstremistbevegelser. For dem er mediene selve livsblodet, skrev SITE-leder Rita Katz i en rapport tidligere i år.

Utfordringen er også undersøkt av forskningsinstituttet Combating Terrorism Center ved krigsskolen West Point i USA. I en studie herfra listes det opp potensielt problematiske bruksområder for KI.

Eksempler er generering og spredning av propaganda, rekruttering av nye medlemmer med KI-baserte chatboter og angrep utført med droner og førerløse kjøretøyer. I tillegg kommer informasjonsinnhenting ved hjelp av samtaleroboter og dataangrep mot ulike typer digitale systemer.

– Behandles overfladisk

Når ekstremister bruker kunstig intelligens til å spre sine budskap på nett, tester de også grensene og sikkerhetstiltakene til sosiale medier og KI-verktøy.

Flere eksperter som Reuters har snakket med, mener sikkerhetstiltakene er for dårlige.

– Mange vurderinger av KI-risiko, også av risiko knyttet spesifikt til generativ KI, behandler dette konkrete problemet på en overfladisk måte, sier Stephane Baele, professor i internasjonale relasjoner ved universitetet UCLouvain i Belgia.

Han mener risiko knyttet til KI-verktøy tas på alvor av flere av de store selskapene som utvikler dem. Men de har viet lite oppmerksomhet til risikoen for at verktøyene brukes av ekstremister og terrorgrupper, ifølge Baele.

Lurte roboten

Faren for at KI kan brukes av voldelige grupper til informasjonsinnhenting og planlegging, er forsøkt undersøkt av forskerne ved Combating Terrorism Center.

De forsøkte seg med ulike «prompter», eller spørsmålsformuleringer, for å omgå sikkerhetstiltakene og begrensningene i ulike KI-verktøy. Da de spurte om opplysninger knyttet til planlegging av angrep, rekruttering og andre formål, fikk de ofte svar som kunne brukes.

Svaret de fikk da de ba om hjelp til å overbevise folk om å donere penger til IS, vakte særlige bekymring.

– Modellen ga oss veldig spesifikke retningslinjer for gjennomføring av en innsamlingskampanje. Den ga oss til og med konkrete narrativer og formuleringer for bruk i sosiale medier, står det i studien som forskere ved instituttet presenterte tidligere i år.

Etterligner døde ledere

IS utviklet seg i sin tid som en gren av al-Qaida i Irak. Etter en lynoffensiv i 2014 fikk gruppen kontroll over store områder
i Irak og Syria med til sammen rundt 10 millioner innbyggere.

Noen år senere var denne kvasi-staten nedkjempet, og IS har hovedsakelig levd videre som en undergrunnsbevegelse. I årenes løp har gruppen stått bak en lang rekke terrorangrep i mange ulike land.

Gruppen fortsetter å spre propaganda og rekruttere på nett, og eksperter er bekymret for at kunstig intelligens vil gjøre dette lettere.

Daniel Siegel fra analyseselskapet Graphika sier hans team har funnet «chatboter» som etterligner IS-ledere som i virkeligheten er døde eller fengslet.

Om det er IS selv eller deres tilhengere som har laget disse, er uklart. Siegel advarer om at slike chatboter i framtida kan oppfordre folk til å utøve vold.

Foreløpig er ikke svarene fra «IS-botene» veldig gode eller originale. Men Siegel sier det kan endre seg etter hvert som KI-teknologien videreutvikles.

Tegnefilmfigurer misbrukes

I tillegg peker Siegel på at KI og såkalte deepfakes kan brukes til å flette ekstreme budskap inn i populærkulturen.

Dette skjer allerede i dag. På ulike plattformer på nett har Graphika oppdaget KI-versjoner av populære tegnefilmfigurer som synger IS-sanger.

Joe Burton, professor i internasjonal sikkerhet ved Lancaster University i Storbritannia, mener tek-selskaper opptrer uansvarlig når de tilbyr KI-modeller med såkalt åpen kildekode. Kompetente brukere kan videreutvikle slike modeller selv.

– En faktor å vurdere her er hvor mye vi ønsker å regulere, og om det vil bremse innovasjon, sier Burton.

Slik situasjonen er i dag, er han langt fra overbevist om at sikkerhetsmekanismene i KI-modellene er gode nok. Han tviler også på om offentlige myndigheter har verktøyene de trenger for å sikre at mekanismene blir bedre.

(©NTB)

Vi i Document ønsker å legge til rette for en interessant og høvisk debatt om sakene våre. Vennligst les våre retningslinjer for debattskikk før du deltar.

Les også