L’IA : Entre opportunités et dangers pour la sécurité et l’intégrité

Vers une amplification des risques de sécurité, de désinformation et de surveillance ?

L'intervenant

Frédéric Pascal est enseignant-chercheur à CentraleSupélec et directeur de l'Institut DATAIA, l'Institut d'intelligence artificielle de l'Université Paris-Saclay qui regroupe CentraleSupélec, l’ENS Paris-Saclay ainsi que des organismes de recherche tels que le CNRS, l'INRIA, ou encore le CEA. Cet institut a vocation à piloter la recherche, la formation et l’innovation dans le domaine de l’intelligence artificielle.

Enjeu

L'intelligence artificielle, amplifie les capacités technologiques. Elle peut transformer la surveillance de masse en un outil omniprésent. Par ailleurs, la manipulation de l'information par des moyens sophistiqués, menace notre compréhension de la vérité. Face à ces défis, une régulation adéquate est essentielle pour protéger nos libertés individuelles et garantir un usage éthique de ces technologies.

« Mon inquiétude est que l'IA peut aussi conduire à des abus" confie Geoffrey HINTON, surnommé le Parrain de l’IA, prix Nobel de physique 2024. Ses propos font écho aux préoccupations croissantes face à cette technologie, dont le développement rapide, soutenu par des entreprises comme OpenAI et Mistral AI, transforme profondément l’économie et les sociétés. Avec un marché estimé à 15 700 milliards de dollars d'ici 2030, l'intelligence artificielle promet de nombreux avantages, mais soulève aussi des risques importants, notamment en matière de surveillance et de fausses informations. Comme le souligne Frédéric Pascal : « L'intelligence artificielle, en soi, n'est pas dangereuse ; c'est de la science, et même quelque chose de très élégant du point de vue mathématique. Cependant, ses usages peuvent être dramatiques, tout comme le nucléaire, qui a permis d'énormes avancées mais aussi la création de la bombe atomique. »

Sécurité Informatique et IA

Allons-nous assister à un dépassement des capacités des pare-feux à lutter contre les attaques cherchant à voler des données sensibles ?  

L’intelligence artificielle (IA) joue un rôle croissant dans la cybersécurité, notamment dans le renforcement des pare-feux. Cependant, il existe un équilibre à trouver. Si l’IA peut grandement améliorer la protection contre les menaces, elle peut également être utilisée par des attaquants pour lancer des offensives plus sophistiquées. La technologie évolue rapidement, et bien que l’IA ne soit pas une solution miracle, certaines de ses applications sont particulièrement efficaces pour la sécurité. Il est donc crucial de mettre en place une régulation stricte pour encadrer son utilisation, afin de maximiser les bénéfices tout en minimisant les risques.

Est-ce que la France est bien positionnée en matière de sécurité liée à l'intelligence artificielle, notamment dans le contexte des pare-feux et des applications militaires ? 

Concernant ces dispositifs de protection, il est difficile de donner une réponse précise. Cependant, la France est très avancée dans le déploiement de techniques d’intelligence artificielle, en particulier dans le secteur militaire. Des initiatives importantes ont été lancées, comme la création d’un centre d’intelligence artificielle dédié à la défense et de serveurs hautement sécurisés pour la gestion de données sensibles. Bien que la France ait peut-être un léger retard sur certains aspects militaires, elle est à la pointe dans la formation, le développement d’outils d’IA et le développement de grandes entreprises, comme Mistral, qui se spécialisent dans les applications de défense. Mistral, bien que majoritairement financée par des capitaux nord-américains, est une entreprise française fondée par trois anciens de META et Google, ce qui illustre l’expertise française en la matière.

Avec les capacités de traitement et l'accès à d'immenses quantités de données, assistons-nous déjà à l'émergence de pratiques sécuritaires autrefois inimaginables, grâce à l'intelligence artificielle ?

Oui, bien que ce ne soit pas mon domaine d’expertise, il est clair que des outils de surveillance utilisant l’intelligence artificielle, comme ceux déployés en Chine, sont déjà en place. Il est important de distinguer deux aspects en intelligence artificielle : les briques technologiques et les usages. Les technologies comme la computer vision (vision par ordinateur) sont aujourd’hui très avancées, permettant une reconnaissance extrêmement précise et rapide, grâce à l’exploitation de vastes quantités de données et aux progrès théoriques en extraction de caractéristiques. Ces technologies continuent de se développer et sont de plus en plus performantes. En termes de reconnaissance de masse, ces technologies, une fois combinées avec des réseaux de caméras omniprésents, permettent effectivement une surveillance individuelle à une échelle jamais vue auparavant.


Régulation et éthique de l’IA

Face à la surveillance de masse par certains gouvernements, est-il possible de protéger les droits individuels à la vie privée ? Peut-on réguler, nationaliser, voire interdire ces pratiques ?

Il est essentiel de réguler l’utilisation de l’intelligence artificielle à l’échelle internationale, car cela ne peut être géré par un seul État. Bien qu’il soit difficile de relier directement un modèle d’IA à des données spécifiques, des mesures peuvent être mises en place pour protéger les données individuelles contre les usages malveillants. Des initiatives, notamment en Europe, cherchent déjà à définir les types de données utilisables et à encadrer leur usage abusif. L’IA dispose d’un potentiel à même d’améliorer la vie quotidienne, que ce soit dans la santé ou la simplification des tâches administratives. Cependant, sa puissance peut aussi être détournée, d’où l’importance d’une régulation solide et indépendante.

Le règlement européen sur l'IA, connu sous le nom d'AI Act, pourrait-il servir de cadre normatif puissant pour le reste du monde en matière d'usage responsable de l'IA ?

Oui, c’est tout à fait possible et souhaitable. L’Europe a pris une avance notable en matière de régulation des technologies, et l’AI Act en est un exemple marquant. Grâce à des initiatives comme le RGPD (Règlement général sur la protection des données), l’Europe pourrait devenir une référence mondiale en matière de normes dédiées à l’IA. L’Europe se distingue par sa capacité à allier protection des droits et innovation responsable. Ce modèle pourrait inspirer d’autres régions du monde. Cela dit, il est essentiel que le cadre réglementaire reste flexible pour s’adapter à l’évolution rapide de l’IA, sans freiner l’innovation. L’AI Act pourra évoluer avec le temps pour rester pertinent. La véritable difficulté réside dans l’application de ces régulations, notamment pour démontrer les abus. Cependant, l’Europe, par sa diversité démocratique, est bien placée pour jouer un rôle de leader et influencer les normes internationales.

Quels types de régulations internationales sont nécessaires pour prévenir l'ingérence électorale par des IA étrangères, comme l'ingérence présumée de la Chine dans les élections américaines ?

La question de l’ingérence électorale par des gouvernements étrangers est complexe, et bien que des soupçons d’intrusion existent, il est essentiel de mettre en place des régulations efficaces. Il y a deux aspects à considérer : d’une part, le cadre juridique qui définit ce qui est permis et interdit, et d’autre part, la capacité technique à prouver l’ingérence. Cela nécessite le développement de services capables de détecter et démontrer ces manipulations, assorties de sanctions adaptées. Un autre point crucial est l’éducation des populations. En raison de l’évolution des technologies comme les deepfakes (contenu audiovisuel modifié grâce à l’intelligence artificielle) et  la génération automatique de contenus, il est essentiel que les citoyens soient formés à comprendre et reconnaître ces manipulations. Des pays comme la Finlande et Singapour ont déjà commencé à former leur population à l’intelligence artificielle, ce qui est indispensable pour que chacun puisse exercer son libre arbitre, vérifier les sources, et ne pas se laisser tromper par des informations générées artificiellement. En résumé, une régulation internationale solide et une éducation à l’IA dès le plus jeune âge sont nécessaires pour prévenir ces ingérences et protéger la démocratie.


Deepfakes et désinformations

Pensez-vous qu'il soit possible de créer un algorithme capable de détecter si une vidéo a été générée par une IA,  pour contrer les deepfakes  ? 

Non, ce n’est pas encore possible de manière universelle. Aujourd’hui, certaines grandes entreprises comme Google, ont développé des algorithmes capables de reconnaître les images générées par leurs propres modèles d’IA, même lorsqu’elles sont mélangées à des images réelles. Cependant, il n’existe pas d’algorithme capable de détecter toutes les données générées, peu importe la méthode utilisée. Les techniques de génération de contenu sont tellement variées qu’il est impossible de toutes les identifier. Une solution potentielle pourrait être d’imposer un marquage invisible (watermarking) sur les données générées par IA. Ce marquage ne serait pas visible sur l’image elle-même, mais serait intégré dans les données, comme les pixels, permettant ainsi de tracer et d’identifier les contenus créés. Cela pourrait faire partie des régulations futures, bien que ce ne soit pas encore le cas aujourd’hui.

Serait-il possible de générer avec l'IA des longs débats politiques, ce qui pourrait fausser l'information et influencer l'opinion publique ? 

Oui, il sera certainement possible de générer des vidéos bien plus longues que celles de 5 minutes. Bien que la réalisation de séquences cohérentes de 30 secondes soit déjà un défi, les avancées rapides permettront bientôt de produire des vidéos plus élaborées. Quant à la création de débats politiques, cela semble inévitable. On pourrait générer des dialogues cohérents entre deux personnes, ce qui risquerait d’altérer l’information et d’influencer l’opinion publique, posant ainsi un risque d’ingérence. Cependant, au-delà de la technologie, il est crucial de se concentrer sur l’éducation et la vérification des faits. Promouvoir l’accès à une connaissance vérifiée et renforcer la capacité des citoyens à discerner le vrai du faux est essentiel pour contrer les dangers potentiels de l’IA.

Pensez-vous qu'il soit possible de restreindre l'utilisation des deepfakes ? 

Les deepfakes, créations générées par l’intelligence artificielle imitant des images, vidéos ou sons, sont facilement accessibles grâce à des logiciels en ligne. Bien que ces outils puissent être utilisés de manière créative, comme générer des œuvres d’art ou faciliter la communication par traduction instantanée, leur utilisation à des fins malveillantes, telles que la désinformation ou le chantage, soulève des préoccupations. Plutôt que d’interdire complètement les deepfakes, il serait plus judicieux de réguler leur usage pour prévenir les abus. Cela pourrait inclure des lois sanctionnant les utilisations nuisibles tout en permettant les applications créatives et inoffensives. La clé est de distinguer les usages légitimes des usages dangereux et d’agir en conséquence.


L’IA dans les conflits armés

L'IA permet aujourd'hui de guider les frappes militaires avec une précision accrue, mais peut-elle vraiment prévenir les pertes civiles comme le prétend l'armée israélienne (IDF) dans des conflits tels que celui qui a lieu à Gaza ?

L’intelligence artificielle a effectivement amélioré la précision des frappes militaires, ce qui peut réduire les pertes également militaires. Cependant, la question des pertes civiles est plus complexe. Les guerres se déroulent souvent dans des zones peuplées, et même avec l’IA, les risques pour les civils demeurent élevés. L’IA pourrait théoriquement aider à mieux identifier les cibles et éviter les frappes sur des civils, mais cela dépend de la qualité des données et de la précision des algorithmes, qui ne sont pas infaillibles. De plus, l’inégalité technologique entre les armées peut créer une asymétrie des pertes humaines, rendant certaines armées plus aptes à minimiser les pertes civiles que d’autres. En somme, l’IA peut potentiellement réduire certaines pertes, mais elle ne pourra jamais éliminer complètement les dangers pour les civils. La régulation de son utilisation dans les conflits armés est donc essentielle, tout comme pour d’autres armes de destruction massive, afin de minimiser les dégâts humains. Des décisions éthiques devront être prises sur son emploi militaire. Pour conclure, il semble évident que la formation joue un rôle clé dans l’avenir de l’intelligence artificielle. La compréhension des mécanismes de l’IA, de ses usages et de ses limites est essentielle pour éviter les dérives, notamment face aux fausses informations. Des initiatives, comme celles menées en Finlande, montrent qu’il est important de sensibiliser la population, afin que chacun puisse s’adapter à cette révolution technologique. La connaissance et l’éducation seront les meilleurs outils pour encadrer efficacement l’IA et en tirer le meilleur parti tout en limitant ses risques.

Vous aimez lire nos décryptages ?

Soutenez-nous ! Parce que nous sommes un média :

Rejoignez notre communauté

Recevez chaque semaine nos derniers dossiers, grands entretiens et décryptages dans votre boite mail !