04212026Headline:

Un Australien bloqué à l’aéroport après des conseils erronés sur ChatGPT

Mark Pollard, célèbre auteur australien, s’est vu bloqué à l’aéroport à cause d’une simple erreur de recherche faite sur ChatGPT, l’intelligence artificielle d’OpenAI, rapporte la chaîne BFMTV.
Alors qu’il devait se rendre au Chili pour une conférence, il a utilisé ChatGPT pour savoir s’il avait besoin d’un visa. L’IA lui a répondu que non. En toute confiance, il s’est donc présenté à l’aéroport sans le précieux document… et s’est retrouvé bloqué. Conséquence directe : il a manqué son vol et la conférence qu’il devait animer.

Quand l’intelligence artificielle se trompe
Cette mésaventure illustre un problème majeur des IA génératives : elles ne sont pas infaillibles. Contrairement aux moteurs de recherche qui fournissent des sources variées, ChatGPT génère des réponses en fonction de ses données d’entraînement, parfois obsolètes ou erronées.

Ce n’est pas la première fois que ChatGPT est pointé du doigt pour avoir fourni des informations erronées.
Mark Pollard a raconté son expérience sur Instagram et X, déclenchant une vague de réactions. Certains internautes l’ont moqué, tandis que d’autres se sont interrogés sur la véracité de son histoire. Lui, en tout cas, a retenu la leçon : il continuera d’utiliser ChatGPT, mais plus jamais pour des informations critiques comme les formalités de voyage.

Des erreurs qui coûtent cher
Ce n’est pas la première fois que ChatGPT est pointé du doigt pour avoir fourni des informations erronées. De nombreux utilisateurs se fient aveuglément à ses réponses, sans les vérifier. Pourtant, même OpenAI avertit sur son site : “ChatGPT peut commettre des erreurs. Vérifiez les informations importantes.”
Dans le cas de Mark Pollard, une simple vérification sur un site officiel du gouvernement chilien aurait suffi pour éviter cette mésaventure. Cet épisode rappelle qu’il est indispensable de croiser les sources avant de prendre une décision basée sur une IA.

Une intelligence, mais pas encore humaine
Si ChatGPT est capable de rédiger des textes, coder ou résumer des documents, il ne comprend pas réellement les informations qu’il fournit. Il ne distingue pas toujours la vérité de la fiction et peut générer des erreurs factuelles, comme l’a vécu Mark Pollard.

L’intelligence artificielle progresse, mais elle reste un outil à utiliser avec prudence. Et surtout, elle ne remplacera jamais le bon sens humain lorsqu’il s’agit de décisions importantes comme un voyage international.

What Next?

Recent Articles