De Olympische Spelen van 2024 in Parijs trekken de aandacht van de hele wereld, aangezien duizenden atleten en ondersteunend personeel en honderdduizenden bezoekers van over de hele wereld naar Frankrijk komen.
Het zijn niet alleen de ogen van de wereld die toekijken. Kunstmatige intelligentie (AI)-systemen kijken ook toe, schrijft Anne Toomey McKenna.
Overheden en particuliere bedrijven maken gebruik van geavanceerde AI-tools en andere bewakingstechnologie om voor, tijdens en na de Spelen alomvattend en aanhoudend toezicht uit te voeren.
Het Olympische wereldtoneel en het internationale publiek vormen een verhoogd veiligheidsrisico, zo groot zelfs dat autoriteiten en critici de Olympische Spelen de afgelopen jaren hebben omschreven als “de grootste veiligheidsoperaties ter wereld buiten oorlogstijd.”
De Franse overheid heeft, samen met de particuliere technologiesector, die legitieme behoefte aan meer veiligheid aangegrepen om technologisch geavanceerde bewakings- en gegevensverzamelingstools in te zetten.
De plannen om deze risico’s te bestrijden, waaronder het controversiële gebruik van experimentele AI-videobewaking, zijn zo uitgebreid dat het land zijn wetten moest wijzigen om de geplande bewaking legaal te maken.
Het plan gaat verder dan nieuwe AI-videobewakingssystemen. Volgens nieuwsberichten heeft het kantoor van de premier een voorlopig decreet onderhandeld dat is geclassificeerd om de overheid toe te staan om traditionele, heimelijke bewakings- en informatievergaringsmiddelen aanzienlijk op te voeren voor de duur van de Spelen.
Voorbeelden hiervan zijn het afluisteren van telefoongesprekken, het verzamelen van geolocatie-, communicatie- en computergegevens en het vastleggen van grotere hoeveelheden visuele en auditieve gegevens.
Ik ben een rechtenprofessor en advocaat, en ik doe onderzoek, doceer en schrijf over privacy, kunstmatige intelligentie en surveillance. Ik geef ook juridische en beleidsmatige begeleiding over deze onderwerpen aan wetgevers en anderen.
Toegenomen veiligheidsrisico’s kunnen en vereisen meer toezicht. Dit jaar heeft Frankrijk te maken gehad met zorgen over zijn Olympische veiligheidscapaciteiten en geloofwaardige bedreigingen rond openbare sportevenementen.
Preventieve maatregelen moeten echter in verhouding staan tot de risico’s. Wereldwijd beweren critici dat Frankrijk de Olympische Spelen gebruikt als een machtsgreep voor surveillance en dat de overheid deze “uitzonderlijke” surveillancerechtvaardiging zal gebruiken om staatssurveillance in de hele maatschappij te normaliseren.
Tegelijkertijd zijn er legitieme zorgen over adequate en effectieve bewaking voor veiligheid. In de VS vraagt de natie zich bijvoorbeeld af hoe de veiligheidsbewaking van de Secret Service er niet in slaagde een moordpoging op voormalig president Donald Trump op 13 juli te voorkomen.
Massabewaking op basis van kunstmatige intelligentie
Dankzij de onlangs uitgebreidere wetgeving op het gebied van toezicht werken de Franse autoriteiten samen met de AI-bedrijven Videtics, Orange Business, ChapsVision en Wintics om grootschalige AI-videobewaking in te zetten.
Ze hebben de AI-surveillance gebruikt tijdens grote concerten, sportevenementen en in metro- en treinstations tijdens periodes van intensief gebruik, waaronder rond een Taylor Swift-concert en het filmfestival van Cannes. Franse functionarissen zeiden dat deze AI-surveillance-experimenten goed verliepen en dat de “lichten groen” zijn voor toekomstig gebruik.
De gebruikte AI-software is over het algemeen ontworpen om bepaalde gebeurtenissen te signaleren, zoals veranderingen in de grootte en beweging van mensenmassa’s, achtergelaten voorwerpen, de aanwezigheid of het gebruik van wapens, een lichaam op de grond, rook of vlammen en bepaalde verkeersovertredingen.
Het doel is dat de bewakingssystemen onmiddellijk, in real-time, gebeurtenissen detecteren zoals een menigte die naar een poort toe stormt of een persoon die een rugzak op een drukke straathoek achterlaat en beveiligingspersoneel waarschuwen. Het signaleren van deze gebeurtenissen lijkt een logisch en verstandig gebruik van technologie.
Maar de echte privacy- en juridische vragen vloeien voort uit hoe deze systemen functioneren en worden gebruikt. Hoeveel en welke soorten gegevens moeten worden verzameld en geanalyseerd om deze gebeurtenissen te signaleren? Wat zijn de trainingsgegevens van de systemen, foutpercentages en bewijs van vooringenomenheid of onnauwkeurigheid? Wat wordt er met de gegevens gedaan nadat deze zijn verzameld en wie heeft er toegang toe?
Er is weinig transparantie om deze vragen te beantwoorden. Ondanks de waarborgen die erop gericht zijn het gebruik van biometrische gegevens die mensen kunnen identificeren, te voorkomen, is het mogelijk dat de trainingsgegevens deze informatie vastleggen en dat de systemen kunnen worden aangepast om deze te gebruiken.
Door deze particuliere bedrijven toegang te geven tot duizenden videocamera’s die zich al in heel Frankrijk bevinden, door de bewakingsmogelijkheden van spoorwegmaatschappijen en vervoersbedrijven te benutten en te coördineren en door het gebruik van drones met camera’s toe te staan, staat Frankrijk deze bedrijven wettelijk toe en ondersteunt het deze bedrijven bij het testen en trainen van AI-software op haar burgers en bezoekers.
Zowel de noodzaak als de praktijk van overheidstoezicht op de Olympische Spelen is niets nieuws. De zorgen over veiligheid en privacy op de Olympische Winterspelen van 2022 in Beijing waren zo groot dat de FBI “alle atleten” aanspoorde om persoonlijke mobiele telefoons thuis te laten en alleen een wegwerptelefoon te gebruiken in China vanwege het extreme niveau van overheidstoezicht.
Frankrijk is echter een lidstaat van de Europese Unie (EU). De Algemene Verordening Gegevensbescherming van de EU is een van de sterkste wetten inzake gegevensbescherming ter wereld, en de AI-wet van de EU leidt inspanningen om schadelijk gebruik van AI-technologieën te reguleren. Als lid van de EU moet Frankrijk de EU-wetgeving naleven.
Ter voorbereiding op de Olympische Spelen heeft Frankrijk in 2023 Wet nr. 2023-380 aangenomen, een pakket wetten om een juridisch kader te bieden voor de Olympische Spelen van 2024.
Het omvat het controversiële Artikel 7, een bepaling die de Franse wetshandhaving en haar technische contractanten toestaat om te experimenteren met intelligente videobewaking vóór, tijdens en na de Olympische Spelen van 2024, en Artikel 10, dat specifiek het gebruik van AI-software toestaat om video- en camerabeelden te bekijken.
Met deze wetten is Frankrijk het eerste EU-land dat een dergelijk omvangrijk AI-gestuurd bewakingssysteem legaliseert.
Geleerden , maatschappelijke organisaties en voorstanders van burgerlijke vrijheden hebben erop gewezen dat deze artikelen in strijd zijn met de Algemene Verordening Gegevensbescherming en de inspanningen van de EU om AI te reguleren. Zij stellen dat artikel 7 specifiek in strijd is met de bepalingen van de Algemene Verordening Gegevensbescherming die biometrische gegevens beschermen.
Franse functionarissen en vertegenwoordigers van technologiebedrijven hebben gezegd dat de AI-software zijn doelen kan bereiken door specifieke soorten gebeurtenissen te identificeren en te markeren, zonder dat daarbij mensen worden geïdentificeerd of de beperkingen van de Algemene Verordening Gegevensbescherming met betrekking tot de verwerking van biometrische gegevens worden geschonden.
Maar Europese burgerrechtenorganisaties hebben erop gewezen dat als het doel en de functie van de algoritmes en AI-gestuurde camera’s het detecteren van specifieke verdachte gebeurtenissen in openbare ruimtes is, deze systemen noodzakelijkerwijs ‘ fysiologische kenmerken en gedragingen’ van mensen in deze ruimtes zullen vastleggen en analyseren.
Deze omvatten lichaamshoudingen, gang, bewegingen, gebaren en uiterlijk. De critici beweren dat dit biometrische gegevens zijn die worden vastgelegd en verwerkt, en dat de Franse wet dus in strijd is met de Algemene Verordening Gegevensbescherming.
Voor de Franse overheid en de AI-bedrijven is AI-surveillance tot nu toe een wederzijds voordelig succes gebleken. De algoritmische watchers worden steeds meer gebruikt en geven overheden en hun tech-collega’s veel meer data dan mensen alleen zouden kunnen leveren.
Maar deze AI-gestuurde bewakingssystemen zijn slecht gereguleerd en onderhevig aan weinig onafhankelijke tests. Zodra de data is verzameld, is het potentieel voor verdere data-analyse en inbreuken op de privacy enorm.
Als u de artikelen van Dissident.one waardeert, kunt u HIER een donatie doen om de site in de lucht te houden.