Le PDG de Nvidia, Jensen Huang, a récemment dévoilé une astuce efficace et accessible pour fiabiliser les réponses générées par l’intelligence artificielle. Son approche repose sur une logique de comparaison croisée entre plusieurs modèles.
Invité par CNN en juillet, Jensen Huang a expliqué comment il s’assure de la pertinence des réponses fournies par des outils comme ChatGPT, Claude ou Gemini. Face aux limites connues des IA génératives, capables d’“halluciner” ou de produire des réponses erronées, le dirigeant opte pour une vérification par confrontation.
« Je prends la réponse d’une IA, je la donne à une autre IA, et je lui demande de la critiquer », a-t-il confié. Avant de poursuivre : « Ce n’est pas différent d’obtenir trois avis médicaux. Je pose la même question à plusieurs IA, je compare leurs réponses, et je demande laquelle est la meilleure. »
Cette technique, selon lui, permet non seulement d’identifier les incohérences éventuelles, mais aussi d’enrichir la réponse par des points de vue complémentaires. Elle s’inscrit dans une logique de validation croisée, proche de celle utilisée dans les milieux scientifiques ou journalistiques.
Cette astuce de Jensen Huang ne nécessite aucune compétence technique particulière. Il s’agit simplement de poser la même question à plusieurs modèles d’intelligence artificielle, puis d’examiner les écarts entre leurs réponses. En l’absence de sources citées ou face à une information sensible, ce réflexe peut aider à éviter les erreurs.
Enfin, le patron de Nvidia réfute l’idée selon laquelle le recours fréquent à l’IA nuirait à nos capacités cognitives. Pour lui, savoir formuler des requêtes pertinentes constitue au contraire une compétence intellectuelle essentielle dans l’ère numérique.
