L’auteur montre, à l’aide d’exemples éclairants, que l’Intelligence Artificielle (IA) peut résoudre des problèmes complexes, mais qu’elle ne peut se substituer à toutes les formes de l’intelligence humaine (IH), incluant l’intuition et l’émotion. Le passage de l’IH à l’IA implique de réduire la pensée à une logique purement rationnelle. Les algorithmes apprenants de l’auto-apprentissage (machine learning) et de l’apprentissage profond (deep learning) reposent sur le traitement de données massives (le big data) par des modèles sophistiqués d’itération. Ces traitements sont exposés à divers bais méthodologiques (de sur-échantillonnage, d’histoire, de confirmation, d’ancrage, de prophétie auto-réalisatrice, de « pensée magique » …). Ces biais rendent contestable le qualitatif de « prédictif » parfois attribué au traitement insuffisamment robuste de bases de données juridiques (la justice prédictive), commerciales (le marketing prédictif), économiques (l’économie prédictive), financières (la finance prédictive)… C‘est pourquoi les algorithmes font de plus en plus l’objet d’une surveillance accrue de la part d’administrations, d’universités (notamment celle de Columbia) et d’associations de défense des consommateurs.
L’IA n’intègre pas les logiques propres à l’intelligence émotionnelle –dominée par des intuitions, des inhibitions, des affects psychologiques…- et à l’intelligence collective – marquée par des effets d’imitation et d’ancrage dans la pensée dominante. L’auteur estime qu’un alignement de l’IA sur l’IH implique une sophistication des algorithmes largement inaccessible en l’état actuel des heuristiques et des modèles de simulation.
L’auteur est psychologue et membre du CNRS.