De olympiske sommerleker skal foregå i den franske hovedstaden i juli og august 2024. Det finnes derimot bekymringer for sikkerheten for utøvere og tilskuere. Frankrike har vært rammet av en rekke dødelige jihadistiske terrorangrep de siste årene. Innvandreropptøyene sommeren 2023 er kanskje de største opptøyene landet har opplevd siden revolusjonen i 1789.
Sanntidskameraer vil bruke kunstig intelligens (KI) for å oppdage mistenkelig aktivitet på gatene i Paris under neste års sommer-OL. Rettighetsgrupper frykter at teknologien er en trussel mot sivile friheter. Dette rapporterer BBC.
«Vi er ikke Kina, vi ønsker ikke å være storebror». Dette sier François Mattens fra et Paris-basert KI-selskap som byr på en del av kontrakten for videoovervåkning under OL.
I henhold til en ny lov vil politiet kunne bruke algoritmer for å fange opp uregelmessigheter som for eksempel folkemengder, slåsskamper eller ubetjente bagger. Loven utelukker eksplisitt bruk av ansiktsgjenkjenningsteknologi, slik den er tatt i bruk av Kina, for eksempel, for å spore opp «mistenkelige» individer.
Selv om forsøksperioden tillatt av loven slutter i mars 2025, frykter kritikere at den franske regjeringens egentlige mål er å gjøre de nye sikkerhetsbestemmelsene permanente.
«Vi har sett dette før ved tidligere olympiske leker som i Japan, Brasil og Hellas. Det som skulle være spesielle sikkerhetsordninger for de spesielle omstendighetene ved lekene, endte opp med å bli normalisert». Det uttaler Noémie Levain fra kampanjen for digitale rettigheter gruppe La Quadrature du Net.
En versjon av det nye sikkerhetssystemet basert på kunstig intelligens (KI) er allerede på plass ved noen politistasjoner i Frankrike. En av pionerene er Paris-forstaden Massy.
«Rundt i byen har vi 250 overvåkingskameraer – alt for mange til at teamet vårt på fire personer kan overvåke dem», sier Massys ordfører Nicolas Samsoen. «Så KI-enheten overvåker alle kameraene. Og når den ser noe den har blitt bedt om å se etter – som en plutselig gruppering av mennesker – varsler den.» «Det er da opp til menneskene – politifolkene – å undersøke situasjonen og se hva som bør være riktig handling. Kanskje er det noe alvorlig, kanskje ikke». «Det viktige er at det er mennesker som tar den endelige avgjørelsen om hvordan de skal reagere – ikke datamaskinen. Algoritmen styrker mennesker».
Som en test forlot BBCs reporter et stykke bagasje på gata ikke langt fra politistasjonen. Tretti sekunder seinere ble det slått alarm, og videoopptak av kofferten dukket opp på skjermen i kontrollrommet.
Tidligere har algoritmen måttet læres hvordan forlatt bagasje ser ut. Det er her kunstig intelligens kommer inn. Utviklerne har matet programmet med mange forskjellige bilder av etterlatte bagger på gata.
Å oppdage ubetjent bagasje er derimot en relativt enkel oppgave. Det kan være mye vanskeligere å se en person på bakken i en folkemengde, eller se klumpen i en persons klær som er et skjult våpen, eller skille mellom begynnelsen av en kamp og en uskyldig midlertidig økning i publikumstettheten.
En fransk start-up som spesialiserer seg på slik programvare, XXII-gruppen, venter på ytterligere spesifikasjoner fra den franske regjeringen før de finjusterer budet sitt på en del av OL-videoovervåkingskontrakten.
«Vi forventer at regjeringen vil at KI skal være i stand til å oppdage brann, slåssing, mennesker på bakken og forlatt bagasje», sier XXIIs François Mattens. Det vil ta tid å få alt dette til.
Mattens og andre utviklere er ikke enig i kritikken om at de muliggjør uakseptable nivåer av statlig overvåking. «Vi vil ikke – og kan ikke ved lov – gi ansiktsgjenkjenning, så dette er en helt annen operasjon enn det du ser i Kina», hevder han. «Det som gjør oss attraktive er at vi gir trygghet, men innenfor rammene av loven og etikken».
Men ifølge Noémie Levain, en aktivist for digitale rettigheter, er dette bare en narrativ som utviklere bruker for å selge produktet sitt. Det vet at regjeringen nesten helt sikkert vil favorisere franske selskaper fremfor utenlandske firmaer med å tildele OL-kontrakter.
«De sier at det utgjør hele forskjellen at her vil det ikke være ansiktsgjenkjenning. Vi sier at det i hovedsak er det samme», sier Levain. «KI-videoovervåkning er et overvåkningsverktøy som lar staten analysere kroppen vår, oppførselen vår og avgjøre om den er normal eller mistenkelig. Selv uten ansiktsgjenkjenning muliggjør den massekontroll». «Vi ser det som like skummelt som det som skjer i Kina. Det er det samme prinsippet om å miste retten til å være anonym, retten til å handle slik vi vil opptre i offentligheten, retten til ikke å bli sett».
En rekke britiske butikker bruker ansiktsgjenkjenning med kunstig intelligens for å ta butikktyver