C’est quoi l’intelligence artificielle ?

Introduction

L’intelligence artificielle est partout. Dans les applications pour interpréter des radiographies, composer des chansons, piloter des voitures, battre les meilleurs joueurs, contrôler les dépenses publiques de l’Etat, piloter des armes autonomes… L’IA est aussi omniprésente dans le domaine de la reconnaissance : images, actions. Aussi appelé Machine Learning, elle repose sur le Big data et la transition / transformation numérique. L’IA est un outil ! On peut s’en servir aussi bien pour faire n’importe quoi que pour en faire du bien. Cela dépend des personnes qui les utilisent d’où la nécessité de l’utilisation éthique de l’IA (la donnée avec laquelle on entraîne une IA aura une influence sur le comportement de cette IA). Il faut savoir que les chinois se servent de l’IA essentiellement pour la surveillance : par exemple la surveillance totale des citoyens. Les américains se servent de l’IA plutôt à dans objectif de performance, c’est à dire des IA qui font de plus en plus de chose, mais ont de plus en plus peur de l’innovation technologique des chinois. Où est l’Europe dans tout ça ? Nous avons une vision totalement différente. Un gros projet national est en cours de développement : le projet 3IA. Nous cherchons à jouer la valeur éthique. Peut-on faire émerger une Silicon Valley en Europe ? Il faut un ensemble d’éléments pour en faire une, cela inclus déjà le fait de garder nos talents (théorie du signal).

La cybernétique est l’ancien nom de l’IA. Avec l’IA, on supprime tout l’aspect mécanique, technologique… Nous avons réalisé le monde qui a été inventé dans la science fiction il y a quelques années. Par exemple les derniers produits de Google ressemblent à certains éléments du film Star Trek. Comment les politiciens peuvent gagner ce combat ?

Quelles conditions d’une IA pour des systèmes critiques ?

  • Explicabilité : connaitre les raisons d’une décision en des termes appréhendés par un humain. Pourquoi l’IA a-t-elle réagit de cette façon ? Cela implique la génération et la compréhension d’un langage lors d’un dialogue avec la machine.
  • Validité : prouver que le système fait ce qu’on attend de lui et uniquement cela. Ni plus, ni moins. Cela permet de vérifier la non régression des systèmes surtout dans le cas d’un apprentissage automatique.
  • Responsabilité : mettre en place un cadre éthique et légal auquel l’IA devra être conforme. Il est intéressant de s’y intéresser dès la conception : responsability & ethics by design.

Les machines sont-elles en train de prendre le pouvoir ?

On imagine très bien un avenir comme le film Matrix. Dans l’industrie, on en est encore un peu loin aujourd’hui. Début de la créativité artificielle, mais pas pour tout de suite. Pour éviter cela, ce ne sont pas les sachant qui doivent imposer aux utilisateurs mais l’inverse ! Cela passe par une analyse des besoins des futurs utilisateurs ; il faut être à l’écoute pour adapter ce qu’on doit développer en fonction.

L’IA n’est pas quelque chose d’horrible. L’humain est intelligent. On ne fait que déléguer les tâches répétitives à une IA pour ne pas ennuyer l’homme. La technologie ne peut pas répondre à tous les problèmes ! Le risque c’est le moment où la technologie deviendra plus pertinente que l’humain. Ce sont les experts qui transfèrent leurs savoirs aux IA. Par contre les IA n’ont pas les soft-skills mais attention à l’IA émotionnel. L’être humain perd alors l’expertise.

Un exemple de prise de pouvoir des machines avec Facebook où à partir de l’IA, ils peuvent prévoir ce que vous allez faire (pour qui vous allez voter par exemple). C’est de l’analyse prédictive sur les données de l’utilisateur. Un contre-exemple de prise de pouvoir des machines avec la RGPD qui est une bonne initiative car elle permet de réguler l’utilisation des données.

Il existe actuellement une grosse tension sur l’utilisation des données ; est-ce qu’on maîtrise vraiment nos données personnelles ?

Sources

  • David Sadek (Thales)

Leave a Comment