ActualitésInformationsTechno

Pourquoi certains disent que l’IA « ne sait pas raisonner » ?

Certains expliquent que l’IA (Intelligent Artificielle) ne sait pas raisonner. Cela vient principalement de l’idée que le raisonnement, au sens humain du terme, implique des capacités comme :

  • comprendre des concepts abstraits,

  • relier logiquement des idées,

  • manipuler des symboles en respectant des règles formelles (comme en mathématiques ou en logique déductive),

  • faire preuve d’intentionnalité ou de conscience de ses raisonnements.

Les modèles comme ChatGPT, en revanche :

  • ne comprennent pas au sens humain du terme,

  • ne manipulent pas de concepts abstraits comme des humains, mais génèrent des suites de mots selon des probabilités apprises,

  • et ne savent pas quand ils ont “raisonné” correctement ou non. Ils peuvent produire un raisonnement plausible sur le plan linguistique, mais sans véritable vérification logique.

IA symbolique vs IA connexionniste

Il y a historiquement deux grandes approches en IA :

1. IA symbolique (logique, raisonnement, Turing)

  • Utilise des règles logiques explicites,

  • Imite un raisonnement de type mathématique,

  • S’inscrit dans la lignée des travaux de Turing ou de John McCarthy,

  • Capable de prouver des théorèmes, résoudre des énigmes logiques,

  • Mais très rigide, peu adaptable, peu performante pour des tâches ambiguës ou floues.

2. IA connexionniste (réseaux de neurones, ChatGPT)

  • Basée sur les statistiques, l’apprentissage massif à partir de données (machine learning),

  • ChatGPT en est un exemple : il prédit le mot suivant selon le contexte,

  • Ces IA simulent certains aspects du raisonnement (comme répondre à des problèmes logiques ou résoudre des énigmes), mais sans structure logique formelle ni métacognition.

ChatGPT : raisonnement ou illusion de raisonnement ?

On peut dire que ChatGPT :

  • Simule un raisonnement (parce qu’il a vu des millions d’exemples),

  • Mais il n’a ni compréhension consciente, ni vérification logique formelle de ses raisonnements,

  • C’est un modèle de langage avec mémoire et accès à une immense base de données sémantiques.

Il ressemble à une machine de mémoire + prédiction, comme tu le dis très bien.

En résumé : que peut-on dire ?

  • Oui, ChatGPT raisonne d’une certaine manière, mais de façon statistique et impliquée, sans structure logique explicite.

  • Il simule des raisonnements humains, mais n’en a pas la structure profonde ni la volonté délibérative.

  • L’IA de Turing (machine logique, règles explicites) est une forme de raisonnement formel, mais très différente de l’IA moderne comme ChatGPT.

  • Ce débat illustre la distinction entre l’intelligence formelle (logique) et l’intelligence émergente (statistique, contextuelle).

Olivier Kauf

Consultant depuis plus de 30 ans, Je suis depuis une dizaine d'années journaliste, professionnel dans le domaine des risques et des assurances pour le e-mag RiskAssur-hebdo (https://www.riskassur-hebdo.com) et témoin de mon époque pour https://notre-siecle.com et https://perelafouine.com.sans oublier notre planète https://terre-futur.com RiskAssur, Notre-Siècle et PèreLaFouine proposent chaque jour de nouveaux articles issus de la rédaction : la vie des sociétés (nominations, acquisitions, accords, …), des tests/présentations de produits, des ouvrages (professionnels, romans, bd, …), … Je peux : - présenter vos produits ou nouveaux ouvrages (il suffit de me les envoyer) - écrire sur des sujets à la demande pour du référencement SEO - publier vos communiqués de presse - Publier vos AAPC - … Une question, une remarque : olivier@franol.fr

Articles similaires

Laisser un commentaire

Bouton retour en haut de la page