Formulaire de contact
Votre demande a bien été envoyée.
Veuillez saisir votre nom
Merci de saisir une adresse e-mail
Le format de l’e-mail est incorrect
Veuillez saisir le nom de votre société
Veuillez saisir un message

Éthique de l’IA : les acteurs de la Défense ouvrent la voie

← Toutes les ressources
Press
Éthique de l’IA : les acteurs de la Défense ouvrent la voie

15/06/2021 par Arnaud Guérin

Cet article issu de La Tribune, est disponible ici

L'intelligence artificielle (IA), cette avancée technologique considérable, a le potentiel d'une nouvelle révolution industrielle : elle peut être un des grands leviers du développement et du progrès, transformer radicalement le quotidien de millions de personnes dans tous ses aspects - santé, transports, éducation, agriculture...-. C'est déjà en partie une réalité, explique Arnaud Guerin (*), co-fondateur et Président de Preligens.

Pour les pays qui n'adopteront pas pleinement l'IA, le risque de déclassement est réel. Plutôt que de la craindre, il convient d'en encadrer les usages et les effets afin de mettre en place les conditions de son déploiement vertueux. Car comme tout outil puissant, elle porte aussi en elle la possibilité de dérives et de dommages. C'est ce qu'a bien compris l'Europe qui a pris la tête d'un vaste chantier d'élaboration de normes mondiales en la matière. Et pour quiconque est attentif à ces enjeux, trouver dans le projet de réglementation de la Commission publié le 21 avril 2021 une attention portée explicitement à " la traçabilité des algorithmes", à "la robustesse des systèmes informatiques" ou encore "à la compréhension de l'IA par l'utilisateur" est plutôt de nature à rassurer pour l'avenir.

Comme souvent dans l'Histoire, c'est d'abord dans le domaine militaire que ce nouveau défi éthique, posé à la réflexion et à l'action humaine par une avancée technique, a émergé. Et c'est sans doute auprès des acteurs de la Défense et du Renseignement que l'on peut trouver aujourd'hui certaines des pistes les plus concrètes pour prévenir et limiter les dangers inhérents à une IA mal contrôlée. Pourquoi ? Parce que de nos jours, la guerre se livre et se gagne en grande partie avec l'aide d'algorithmes conçus pour assister l'humain dans ces tâches éminemment stratégiques que sont le recueil, le tri et l'analyse d'informations de sources exponentielles. Détenir la capacité technique de traiter automatiquement des masses considérables de données, c'est détenir la clé d'un avantage tactique réel.

Au service de qui et au service de quoi l'IA doit-elle être mise ? Quelles règles établir pour sa commercialisation? Et comment s'assurer ensuite qu'elle ne sera pas détournée dans son usage ? Autant de questions dont l'importance et l'urgence doivent conduire les acteurs des nouvelles technologies pour la Défense à prendre leurs responsabilités ici et maintenant, quitte à anticiper sur les réglementations des grandes institutions internationales. Notre secteur suit avec attention les débats européens et attend avec intérêt les premiers fruits des discussions de l'OTAN entamées hier sur ce sujet. Mais c'est dès maintenant qu'il nous faut une ligne de conduite et un cadre d'action.

Au cours des dix dernières années, quatre axes concrets se sont imposés. La sensibilisation et la formation d'abord. Les salariés des entreprises travaillant dans l'IA pour la Défense doivent parfaitement comprendre les outils qu'ils contribuent à développer et leurs effets sur le monde réel, leur potentiel, leur puissance et leur limite.

Deuxième axe : le cas d'usage. Le choix technologique ne dépend pas seulement de la nature et du volume de données à traiter. Dans la phase de conception et de développement, il est primordial de s'assurer que la problématique de l'utilisateur et les questions qu'il soulève sont prises en compte car cadrer les prédictions des algorithmes avec l'objectif précis auquel ils répondent, c'est garantir que leurs fonctionnalités ne puissent pas servir une cause annexe, potentiellement déviante.

La troisième action concrète c'est la stratégie commerciale. Parce que ces technologies servent des objectifs de sécurité et de protection particulièrement sensibles, il faut se doter de règles de vente strictes. Les politiques nationales, européennes et multilatérales ont établi des restrictions précises pour garantir la sécurité internationale. Au-delà du respect évident de ces règles, dans une logique de réactivité et d'adaptation constantes, il faut aussi se doter de ses propres sources et outils d'évaluation pour procéder, le cas échéant, à ses propres exclusions.

Enfin, parce que le risque naît souvent de l'ignorance, ceux qui développent la technologie ont la responsabilité de transmettre à ceux qui l'utilisent le savoir minimal pour un usage éclairé. Il faut limiter au maximum l'effet « boîte noire » de l'IA en expliquant les chemins qu'elle emprunte et sur quoi repose sa performance.

Les acteurs de l'IA appliquée à la Défense ont les moyens de faire avancer concrètement l'éthique dans ce domaine, garantir sécurité et souveraineté nationales et contribuer à l'avènement d'un monde plus sûr. La guerre, et donc la paix, se gagneront de plus en plus sur le terrain des systèmes automatisés. Au-delà de la Défense, ils pourraient aussi inspirer la réflexion sur les innombrables applications de l'IA dans le civil car l'enjeu nous est commun à tous : nous assurer que le monde digital de demain reste influencé par des démocraties et des entreprises robustes et loyales, elles aussi... Et ainsi nous prémunir contre les velléités de domination de puissances autocrates hostiles à nos droits et à nos libertés.

Photo©Kai Pfaffenbach

Articles en relation
M&A : déferlante de Spac américains sur l'Europe
M&A : déferlante de Spac américains sur l'Europe
M&A : déferlante de Spac américains sur l'Europe