02/24/2026 | Press release | Distributed by Public on 02/25/2026 15:12
Attendue comme le point culminant du sommet international sur l'impact de l'intelligence artificielle (IA) organisé à New Delhi du 16 au 20 février 2026, la déclaration devait consacrer les ambitions de cet événement politique organisé par l'Inde dans la gouvernance mondiale de l'intelligence artificielle. Elle se révèle n'être qu'une succession de principes non contraignants et totalement creux. Reporters sans frontières (RSF) constate que le droit à l'information figure parmi les grands absents du texte.
Tout ça pour rien, ou presque. En accueillant ce sommet, l'Inde entendait s'imposer comme un acteur incontournable de la gouvernance internationale de l'IA. La traditionnelle déclaration publiée à l'issue du sommet, le 21 février, devait conclure cette séquence diplomatique, comme à Paris en 2025. Le résultat laisse pantois.
Le texte appelle à la "coopération internationale", au développement d'une IA de confiance, au développement du "capital humain"ou encore à l'efficacité énergétique dans le développement de l'IA. Aucun engagement formel, ni aucune désignation des problèmes d'ores et déjà posés par l'IA. Nulle part n'apparaît la moindre référence à l'intégrité de l'information, aux deepfakes, à la lutte contre la désinformation, ni à la soutenabilité des médias, des sujets pourtant de premier plan quand on parle d'impact de l'IA.
"La déclaration finale empile les poncifs et met sous le tapis les enjeux informationnels. Aucun engagement pour protéger les processus démocratiques contre les campagnes de désinformation propulsées par IA. Pas un mot sur la soutenabilité économique des médias, menacée par l'aspiration massive de leurs contenus pour développer ces technologies. Dans un contexte où ces technologies servent déjà à produire des deepfakes de journalistes et où les agents conversationnels sont à la fois un mode d'accès à l'information émergent et défaillant, cette absence est lourde de sens."
Coopérer sans régulation forte
La déclaration de Paris, publiée en février 2025, avait au moins le mérite de mentionner explicitement "l'intégrité de l'information". Celle de New Delhi s'en affranchit, lui préférant l'incantation lénifiante des bienfaits de l'IA pour le "bien-être social" (social gooden anglais). Pour garantir le développement d'une IA de confiance, le texte en appelle à "des mesures volontaires prises par l'industrie"ainsi qu'à "des cadres politiques appropriés qui favorisent l'innovation tout en promouvant l'intérêt du public", sans définir clairement cet intérêt. RSF a pourtant pu constater, au niveau européen, l'échec des tentatives d'autorégulation de l'industrie de l'IA quand il s'agit de défendre le droit à l'information.
Diplomatiquement, le succès est là : 89 signataires, contre 64 pour la Charte de Paris pour l'action sur l'IA, promulguée un an plus tôt. Mais ce succès est en trompe-l'œil. La déclaration est cosignée par les États-Unis de Donald Trump qui avaient boudé celle de Paris. Avant de signer le texte, ils ont tenu à envoyer un message clair lors du sommet de New Delhi et refuser toute "gouvernance mondiale de l'IA"et toute approche de régulation par les risques, "idéologique"et synonyme, selon eux, de "bureaucratie". Ils leur ont préféré un appel à construire des cadres nationaux respectueux, notamment, de la propriété intellectuelleet inviter les "nations à rejoindre les États-Unis en tant que partenaires afin de construire l'avenir de l'IA". Comprendre : une coopération qui ne soit surtout pas synonyme de régulation internationale de l'IA.
Mettre le droit à l'information au cœur de la gouvernance de l'IA
RSF appelle à une gouvernance internationale de l'IA qui intègre le droit à l'information et les représentants du secteur médiatique, en conformité avec l'article 10 de la Charte de Paris sur l'IA et le journalisme, initiée par l'organisation et publiée en novembre 2023.
Les risques informationnels liés à l'IA, des deepfakesciblant les journalistesà la corruption des agents conversationnels par la propagande russeou chinoise, en passant par la production industrielle de faux sites d'informations générés par IA, sont avérés et documentés par RSF. Face aux menaces bien réelles qui pèsent sur l'information, l'heure n'est plus aux déclarations d'intention : elle est à l'adoption de règles claires, applicables et contraignantes.