Formulaire de contact
Votre demande a bien été envoyée.
Veuillez saisir votre nom
Merci de saisir une adresse e-mail
Le format de l’e-mail est incorrect
Veuillez saisir le nom de votre société
Veuillez saisir un message

3 questions à Laurence Devillers

← Toutes les ressources
Blog
3 questions à Laurence Devillers

26/04/2021 par Preligens

Laurence Devillers est chercheure au LIMSI-CNRS et professeure en Informatique et Intelligence Artificielle (IA) à Sorbonne Université, est experte en traitement du langage, apprentissage machine, dialogue homme-machine, "affective computing" et éthique appliquée à l'IA. Elle mène des recherches sur la détection des émotions et les dimensions affectives et sociales dans les interactions parlées, notamment avec des robots. Elle travaille sur le projet BAD-nudge BAD-robot de l'institut DATAIA. Elle est membre de la Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (CERNA) d'Allistène, et a travaillé notamment sur les biais de l'apprentissage machine. Elle est l'auteure de plus de 150 publications scientifiques  ainsi que de plusieurs ouvrages dont, en 2020 aux Éditions de l’Observatoire, « Les Robots « émotionnels » » et « La souveraineté numérique dans le monde de l’après-crise »  dans la collection « Et Après ? ».

Quelle analyse faites-vous de l’impact de la crise sanitaire sur la souveraineté numérique au niveau européen et français ?

La crise sanitaire a eu comme effet de réaffirmer l'importance du numérique, indispensable pour maintenir une activité pendant le confinement, tant pour le travail que la santé, l'éducation ou encore la culture. La crise de la COVID-19 a également sensibilisé le grand public aux enjeux de souveraineté sanitaire, alimentaire, industrielle mais aussi numérique.  L’ enrichissement et le pouvoir des géants du numérique américains (les GAFAMS: Google, Apple, Facebook, Amazon, Microsoft) sont devenus indécents dans cette période de récession économique causée par la pandémie. La Commission européenne présentait en décembre deux projets de règlements visant à définir un nouveau cadre réglementaire des offres du numérique : le Digital Services Act (DSA) et le Digital Markets Act (DMA). Défendre la souveraineté numérique européenne est devenu le sujet de tous.

Pensez-vous que les régulations européennes à venir sur l’éthique et l’usage de l’intelligence artificielle seront un frein à l’innovation ou au contraire un nouveau cadre vertueux de l’Union Européenne pouvant inspirer ses partenaires ?

La Commission européenne a publié hier (mercredi 21 avril NDLR) une réglementation sur l’utilisation de l’IA pour rétablir la confiance. Ce cadre juridique est nécessaire pour favoriser le développement et l'adoption d'une IA répondant à un niveau élevé de protection des intérêts publics, notamment la santé, la sécurité et les droits et libertés fondamentales des personnes dans nos sociétés. Nous avions déjà le cadre européen pour la protection des données personnelles, le règlement RGPD, mais nous avons maintenant un cadre réglementaire traçant des limites sur les usages et ouvrant à des questionnements sur l’éthique. L'éthique est une réflexion qui vise à déterminer le bien agir. Les tensions éthiques sont inévitables dans de nombreux domaines et anticiper l’impact des IA est nécessaire. Cette nouvelle étape est importante et politique, car ce cadre juridique consacre une approche européenne fondée sur nos valeurs, celles des droits de l’homme et de l’éthique dont le respect de la dignité humaine, la liberté, la justice, la démocratie, l’égalité, la solidarité, la loyauté, la transparence. Le fait d’inscrire comme principe que l’humain doit rester au centre doit faciliter l’acceptation de l’IA dans tous ses développements. Ces valeurs européennes doivent être omniprésentes dans le développement de l’IA dans l’Union Européenne. Nous devons les défendre au niveau mondial avec toutes les démocraties.

Au regard des perspectives de développement de la recherche en IA et de ses applications, quelles devraient être les priorités de l’Europe et de la France pour renforcer leur souveraineté face aux puissances chinoise et américaine ?

L'intelligence artificielle ne doit pas être une fin en soi, mais un outil au service de l'homme pour d’innombrables applications dans le but d'accroître le bien-être de l'individu et de notre collectivité. Les règles relatives à l’IA ne doivent pas contraindre inutilement le développement technologique. S'il n'est pas possible d'anticiper toutes les utilisations ou applications possibles de l'IA qui pourraient se produire à l'avenir, il faut cependant en comprendre les tensions. L’IA intégrant les dimensions éthiques telles que la loyauté, la transparence, l’explicabilité pose également de nombreux challenges de recherche. Le développement de la recherche en IA et de ses applications doit s’amplifier en Europe sur ces sujets.

L’Europe compte plus de 512 millions d’internautes à fort pouvoir d’achat qui intéressent également les GAFAM. Il est dans l'intérêt de l'Union Européenne de préserver notre avance technologique et de veiller à ce que les Européens puissent bénéficier des nouvelles technologies mises au point selon leurs valeurs et principes. Outre le cadre juridique présenté par la Commission, la mutualisation de nos données est nécessaire pour contrebalancer le pouvoir des GAFAM. Un débat doit également avoir lieu, dans la société et dans les entreprises, tant celles qui fabriquent les IA que celles qui les utilisent, sur les limites et les possibilités des machines et sur leurs utilités. L’objectif est de permettre la meilleure coopération entre l’IA et l’homme. Il faut développer une double attitude : celle de la confiance et celle du doute pour garder son libre arbitre face à la machine.

En synthèse, notre point fort en Europe est de développer une vision particulière de l'IA suivant nos valeurs et principes. Les 3 clés d’une IA de confiance sont 1/ de respecter un cadre juridique, 2/ d’anticiper des risques éthiques et 3/ de vérifier la robustesse des systèmes. Le RGPD qui porte sur le respect de nos données privées a été critiqué de prime abord, maintenant, il est devenu un exemple pour d’autres pays. Ce nouveau cadre juridique sur l’usage des systèmes d’IA, respectueux de l’humain et de la société, pourrait tout aussi bien nous être envié dans quelque temps et dynamiser notre économie.

Laurence Devillers, Professeur en Intelligence Artificielle

Twitter : @lau_devil

  • Recherche à LISN-CNRS - CNPEN

https://www.ccne-ethique.fr/fr/actualites/cnpen-les-enjeux-ethiques-des-agents-conversationnels

  • GPAI sur l'avenir du travail

https://www.gpai.ai/fr/projets/avenir-du-travail/#:~:text=Group%20of%20work%20on%20workers%20and%20increasing%20the%20productivity%C3%A9

  • Auteur de Les robots émotionnels (Editions de l’Observatoire, 2020) 

https://www.editions-observatoire.com/content/Les_robots_%C3%A9motionnels

Photo©Olivier Ezratty

Articles en relation