• Innovation,
  • Numérique,
  • Recherche,
  • Société,

L'intelligence n'est ni artificielle, ni innée

Par Avner Bar-Hen, professeur du Cnam, chaire Statistique et données massives

Publié le 2 mai 2018 Mis à jour le 12 octobre 2018

Vouloir des algorithmes transparents et accessibles - fondements de l'intelligence artificielle - n’a de sens que si l’on est capable de les comprendre.

Actuellement en plein essor, les technologies reposant sur l’intelligence artificielle n’ont de fait que peu à voir avec l’intelligence humaine. Leur développement impose de former les jeunes et moins jeunes à la science algorithmique pour mieux les comprendre et de garder à l’esprit que les machines et leurs calculs sont faillibles.

Parcourez la presse qu’elle soit spécialisée ou non, l’intelligence artificielle (IA) occupe le devant de la scène médiatique. Depuis les années 2010, cette notion jusque-là principalement visible dans les romans de science-fiction s’est introduite dans notre quotidien via des technologies toujours plus performantes. Mais pour comprendre ce phénomène, il convient de faire un détour par son étymologie.

D’où vient le mot « intelligence » ? Il est emprunté au latin intelligentia, « faculté de percevoir, compréhension, intelligence », lui-même dérivé de intellĕgĕre (« discerner, saisir, comprendre »), composé du préfixe inter- (« entre ») et du verbe lĕgĕre (« cueillir, choisir, lire »). Étymologiquement, l’intelligence consiste donc à faire un choix. Même si la définition de l’intelligence est objet de nombreux débats, on peut parler d’une activité volontaire et réfléchie qui s’oppose à l’instinct.

Ajouter l’adjectif « artificielle » après « intelligence » ne change qu’assez peu la question. Chercher à concevoir des machines qui auront un fonctionnement imitant une activité humaine est passionnant d’un point de vue théorique ; ces technologies sont certes efficaces pour se libérer d’une multitude de tâches du quotidien, mais parler avec un _ chatbot _ (un logiciel programmé pour simuler une conversation en langage naturel) reste du même acabit qu’une conversation avec son chat. On voit donc que les termes de voitures, téléphones ou montres intelligentes constituent des non-sens. Ils montrent avant tout l’étendue de la méconnaissance et des fantasmes (humains). Que dire, alors du statut de citoyen accordé à un robot ?

Comprendre le fonctionnement des technologies de l’IA

Réfléchir à l’intelligence artificielle est donc important et ne doit pas se limiter à la manière de monétiser l’IA. Le récent rapport Villani propose des pistes sur l’éthique ainsi que des éléments pour la gouvernance à l’heure d’un monde numérique. En ce sens, la nouvelle formation d’ingénieur·e en alternance du Cnam en IA/big data est aussi un élément important : pour faire des choix il faut comprendre comment fonctionnent ces technologies et quelles en sont les limites.

Si l’un des aspects majeurs de la révolution numérique est l’accumulation de données, il faut garder à l’esprit que derrière toute donnée, il y a une mesure, c’est-à-dire une chose mesurée et bien sûr, des conventions sociales. L’accès aux données, l’archivage ou le stockage, représentent un pan important de l’informatique. Sans données, pas d’IA. On pourrait discuter longuement sur les types ou la qualité des données, les questions techniques ou le lien entre savoir mesurer et savoir comprendre… Là n’est pas notre propos : nous allons nous concentrer sur le traitement de cette information, à la base de tout choix.

L’IA permet de proposer des règles de décision au sein de cette masse d’informations.

Descartes rêvait d’une langue :

« établissant un ordre entre toutes les pensées qui peuvent entrer en l’esprit humain, de même qu’il y en a un naturellement établi entre les nombres. »

Leibniz, quant à lui imaginait que :

« cette langue serait merveilleuse (…) car alors raisonner et calculer sera la même chose ».

La réalité est (mal)heureusement plus compliquée. Le principe des algorithmes, à la base de l’intelligence artificielle, est de chercher des règles de calcul plus ou moins pertinente. Vouloir des algorithmes transparents et accessibles n’a de sens que si l’on est capable de les comprendre.

Il y a donc urgence à former les élèves et les étudiant·e·s à la science algorithmique. À titre d’exemple, pour un·e mathématicien·e ou un·e informaticien·e, le système d’admission post-bac APB, fortement décrié pour ses limites, répond au nom d’algorithme de Gale-Shapley (on parle aussi d’algorithme des mariages stables) et est connu pour des propriétés d’optimalité. Ceci ne signifie pas que l’on ne doive pas en changer (par exemple, si l’on ne veut pas que les lycéens hiérarchisent leurs choix) mais tout changement nécessite d’être conscient des inconvénients auxquels on s’expose (par exemple ne pas connaître les préférences des élèves).

Éviter que les humains ne deviennent de plus en plus stupides

De même, faire des choix implique de pouvoir faire des erreurs. Si l’on apprend de ses erreurs (ainsi que des erreurs des autres), il est fondamental de ne pas accorder une confiance aveugle aux algorithmes. Qui ne s’est jamais retrouvé dans des bouchons en suivant trop aveuglément un GPS ? La notion d’intelligence artificielle génère de fait la notion de bêtise artificielle. L’idée de pouvoir justifier (au moins en partie) un choix et donc de pouvoir le contester est au fondement du concept d’intelligence.

The ConversationLe risque donc n’est pas de voir les machines devenir plus « intelligentes » que les humains (mythe de la singularité), mais plutôt que les humains deviennent plus en plus stupides. Il va nous falloir nous adapter à une société numérique, et au lieu d’une intelligence artificielle, privilégions une utilisation de l’IA qui nous aide à prendre des décisions respectant nos valeurs fondamentales.

Par Avner Bar-Hen,
Professeur du Cnam,
Chaire Statistique et données massives


Picto label thématiques articles Cnam Blog Innovation Numérique Recherche Société

2 commentaires

  • 1

    De COPOL
    03/06/2018, 10:16

    Bonjour Mr le professeur

    Premier ÉCRIT lu sur cette question qui pose le fondement et l'enjeu de taille contre lequel il est nécessaire d'agir "éviter que les humains ne sombre dans la bêtise".

    De mon point de vue si l'on mesure cet aspect là et que nous recherchons des voix et moyens pour pallier à son évolution, un grand pas aurait été réalisé.

    En effet la question est éthique et ce n'est pas une matière qui est étudiée comme les autres sciences.
    Ex: comment traiter, contrôler, diffuser des informations sensibles dans le cadre de cette IA.?

    Comment interagir entre l'outil et la personne humaine pour en assurer la sécurité la qualité des données rendues sinon que par la culture de l'intelligence et de l'éthique humaine.?

    Merci pour cette importante prise sur la question ! Urgent et préoccupant !!
  • 2

    De Avner
    06/06/2018, 11:13

    Merci pour votre retour. Ce texte a pour vocation d'ouvrir le débat et il y a effectivement encore beaucoup de choses à faire.

Pour faire un lien, saisissez l'adresse complète du site web (http://www.siteweb.fr) ou du mail.


écoutez le mot à saisir