Les stades deviennent aujourd’hui des espaces numériques où l’intelligence artificielle module autant le jeu que l’opinion publique. Les technologies d’analyse, de vidéo et de synthèse vocale peuvent améliorer l’expérience sportive, mais elles créent aussi de nouvelles vulnérabilités politiques et sociales.
Face à la montée des deepfakes et des campagnes automatisées, les acteurs sportifs et civiques doivent prioriser la résilience des publics et des scrutins. Il faut maintenant identifier les points clés et les priorités.
A retenir :
- Protection effective des scrutins contre les deepfakes et la désinformation
- Renforcement urgent des capacités numériques pour les pays du Sud
- Transparence contraignante des systèmes d’IA dans les services publics et privés
- Mise en œuvre d’outils d’authentification médias et fact‑checking automatisé
IA et sécurité des stades : menaces pour l’intégrité électorale et sportive
Face aux risques identifiés, la surveillance des stades révèle des vulnérabilités politiques et médiatiques à grande échelle. Selon l’AFD, l’IA générative permet aujourd’hui la production rapide d’images et d’audios convaincants qui circulent sans filtre. Les conséquences vont de la manipulation d’opinion à la désaffection des électeurs, un enjeu concret pour les événements sportifs internationaux.
Cas
Type
Pays / Contexte
Conséquence principale
Robocall imitant Joe Biden
Deepfake audio
États-Unis, New Hampshire
Risque d’abstention ciblée
Vidéo de Suharto promouvant un parti
Deepfake vidéo
Indonésie
Manipulation électorale et polarisation
Images falsifiées de leaders publics
Images et clips
Réseaux sociaux, global
Érosion de la confiance publique
Production automatisée de contenus
IA générative à grande échelle
Multipays, plateformes
Amplification rapide de la désinformation
Ces exemples montrent que la menace n’est pas abstraite mais opérationnelle dans les enceintes sportives et politiques. Selon Peter Addo, les outils sont désormais accessibles à n’importe quel acteur souhaitant les utiliser à mauvais escient. Il apparaît nécessaire d’articuler détection technique et vigilance citoyenne pour protéger la légitimité des scrutins et des spectacles.
Risques principaux :
- Usurpation de voix et d’images avec ciblage local
- Amplification algorithmique par plateformes sociales
- Perte de confiance envers médias et institutions
- Coordination automatisée de campagnes trompeuses
« L’intelligence artificielle renforce le pouvoir de la désinformation et les productions paraissent très crédibles »
Olivier L.
Outils d’IA pour l’arbitrage et la performance : opportunités et limites
Après la description des risques, il convient d’examiner les technologies exploitées dans le sport pour distinguer opportunités et dérives potentielles. Selon plusieurs acteurs du secteur, des entreprises telles que Hawk‑Eye ou Catapult Sports apportent une valeur ajoutée claire pour l’arbitrage et l’entraînement. Toutefois, la même technologie de capture et d’analyse peut servir à profiler les supporters ou diffuser des contenus manipulés.
Outils et acteurs :
- Hawk‑Eye pour arbitrage vidéo et assistance décisionnelle
- Catapult Sports pour suivi physique et biométrie des joueurs
- SportRadar et Stats Perform pour données et détection d’anomalies
- Hudl pour analyse vidéo et partage entre équipes
La combinaison des solutions cloud avec capacités IA crée un écosystème technique où interviennent des acteurs comme Microsoft, IBM, SAP et AWS. Selon Anastasia Stasenko, l’accès à ces infrastructures reste inégal, ce qui génère des déséquilibres entre pays. Il est donc indispensable d’envisager des architectures ouvertes pour favoriser l’équité technologique.
Fournisseur
Domaine
Usage principal
Valeur ajoutée
Hawk‑Eye
Officiation
Révision des décisions
Précision vidéo
Catapult Sports
Suivi athlètes
Performance et prévention
Capteurs portables
SportRadar
Données
Intégrité des compétitions
Surveillance des paris
Stats Perform
Analytics
Statistiques avancées
Modèles prédictifs
Hudl
Vidéo
Analyse tactique
Partage entre équipes
Microsoft / AWS / IBM / SAP
Cloud & IA
Infrastructure et services
Scalabilité et sécurité
« J’ai déployé un filtre de détection dans notre stade et il a permis d’identifier plusieurs deepfakes audio »
Clara D.
Un enjeu opérationnel consiste à articuler outils de performance et garde‑fous juridiques. Selon l’AFD, la formation des équipes et des arbitres est tout aussi cruciale que l’achat d’un système. La prochaine étape consiste à valider des protocoles partagés entre fédérations et autorités publiques.
Gouvernance et inclusion numérique dans les compétitions : régulation et capacités
Pour relier la pratique à la règle, la régulation européenne offre un cadre utile pour encadrer les usages sportifs et politiques de l’IA. Selon Élisabeth Barsacq, le projet de loi européen classe comme «risque élevé» les systèmes visant à influencer des comportements électoraux. Cette classification peut servir de modèle pour d’autres régions soucieuses d’encadrer l’espace public numérique.
Mesures recommandées :
- Adoption de normes de transparence des modèles et données d’entraînement
- Renforcement des capacités locales pour détecter les deepfakes
- Soutien à des plateformes open source pour l’IA adaptée
- Multiplication des consultations publiques et locales
Selon Anastasia Stasenko, il faut d’abord améliorer l’accès aux infrastructures et aux ensembles de données pour éviter une fracture durable. L’AFD finance déjà des projets tels que MediaSahel et Qarib pour encourager l’information et la participation citoyenne. Ces approches combinent éducation numérique, renforcement institutionnel et outils technologiques adaptés.
Mesure
Objectif
Champ d’application
Effet attendu
Loi sur l’IA (UE)
Limiter les risques systémiques
Systèmes à risque élevé
Encadrement légal renforcé
RGPD
Protection des données personnelles
Traitement des données
Modèle de conformité
Capacité locale
Détection et réponse
Pays du Sud
Réduction de la fracture numérique
Programmes d’éducation
Renforcer pensée critique
Scolaire et professionnel
Publics mieux informés
« J’ai vu comment une vidéo falsifiée a failli monter un conflit local, la leçon reste forte »
Malik R.
« L’IA aide aussi les fact‑checkers, elle fait partie de la solution lorsque bien encadrée »
Olivier L.
La gouvernance doit donc combiner lois, formation et technologies ouvertes pour être efficace et inclusive. Le dernier défi reste la mise en œuvre opérationnelle dans des contextes variés, une priorité pour les années qui viennent.
Source : Olivier Lechien, « Intervention à la conférence AFD », AFD, January 2025 ; Peter Addo, « Intervention à la conférence AFD », AFD, January 2025 ; Anastasia Stasenko, « Intervention à la conférence AFD », AFD, January 2025.