Passer au contenu principalPasser à la recherchePasser au pied de page
L'IA prend de plus en plus de place, mais peut-on lui faire confiance ?
Guide et Comparatif

IA : peut-on lui faire confiance ?

L'IA prend de plus en plus de place, mais peut-on lui faire confiance ? © Oscar Wong / Getty Images

Alors qu’elle s’invite petit à petit dans notre quotidien, les mésaventures liées à l’IA se multiplient. L’intelligence artificielle se démocratise plus vite que les protections qui devraient l'entourer, alors, peut-on vraiment faire confiance à ce nouvel outil ?

L’intelligence artificielle a envahi notre quotidien et toutes les entreprises font tout pour qu’elle soit toujours plus présente : des recherches Google aux assistants conversationnels comme ChatGPT, en passant par les chatbots de nouvelle génération tels que Grok. Mais si elle fascine et séduit par son efficacité apparente, une question demeure : peut-on vraiment lui faire confiance ? Les récents scandales et mésaventures d’utilisateurs montrent que la prudence reste de mise.

Quand l’IA mène droit à l’arnaque

L’un des exemples les plus frappants concerne les résumés générés par l’IA dans les résultats de recherche Google. Présentée comme une avancée pratique, cette fonctionnalité est censée permettre aux internautes de trouver directement les informations essentielles sans avoir à parcourir plusieurs sites. Mais, dans les faits, elle a parfois tourné à l’incident.

C’est ce qu’a vécu Alex Rivlin, qui cherchait simplement le numéro de téléphone de la compagnie Royal Caribbean pour organiser son voyage. En toute confiance, il appelle le numéro affiché par l’IA… et tombe en réalité sur des escrocs. Résultat : deux tentatives de prélèvements frauduleux sur sa carte bancaire. L’affaire, rapportée par le Washington Post, n’est pas isolée. D’autres témoignages évoquent des faux numéros de compagnies aériennes ou de services de livraison.

Mais comment c’est possible ? En réalité, les cybercriminels exploitent des failles en faisant apparaître leurs faux numéros sur des sites qui semblent légitimes. L’IA de Google, en résumant sans vérification suffisante, relaie ensuite ces informations piégées. Il faut donc bien retenir que l’IA n’est donc qu’un moyen de regrouper rapidement les informations, qu’elles soient vraies ou fausses, elle ne crée pas de toute pièce une vérité.

Quand ChatGPT se trompe… et gâche des vacances

L’autre danger n’est pas forcément la fraude volontaire, mais l’erreur involontaire. Mery Caldass, influenceuse espagnole, l’a appris à ses dépens. Préparant un voyage à Porto Rico, elle a demandé à ChatGPT si un visa était nécessaire. Réponse du chatbot : non. Sauf qu’à l’aéroport, l’embarquement lui a été refusé, faute de l’autorisation obligatoire.

En larmes, elle a partagé sa mésaventure sur TikTok, accusant l’IA de lui avoir gâché ses vacances. Si l’histoire s’est bien terminée (le couple a finalement rejoint Porto Rico), elle rappelle une vérité essentielle : un chatbot ne remplace pas une agence de voyages, ni les sites officiels d’immigration.

Cette anecdote illustre le risque de surconfiance. L’IA peut répondre avec une grande assurance, mais cela ne garantit en rien la véracité des informations. Le danger c’est que cette assurance, seulement stylistique, donne aux utilisateurs une fausse impression de fiabilité.

Quand la confidentialité vole en éclats

La confiance en l’IA se joue aussi sur un autre terrain : celui des données personnelles. Dernière polémique en date : Grok, le chatbot d’Elon Musk, accusé d’avoir rendu publiques plus de 370 000 conversations d’utilisateurs.

Selon Forbes, les échanges étaient indexés par les moteurs de recherche, rendant visibles des données sensibles : informations médicales, mots de passe, voire instructions pour fabriquer des explosifs... Une situation alarmante, qui expose les utilisateurs à des risques considérables et met en lumière le non-respect des propres conditions d’utilisation de la plateforme.

Ce scandale rappelle celui qui avait déjà frappé OpenAI, dont une fonctionnalité de partage avait, elle aussi, exposé des conversations privées. Ironie de l’histoire : Elon Musk avait alors critiqué OpenAI pour son manque de rigueur en matière de confidentialité… avant que Grok ne tombe dans le même piège.

Comment rester vigilant ?

Ces trois exemples - l’arnaque bancaire, la fausse information et la fuite massive de données - soulignent un constat simple : l’IA n’est pas infaillible. Elle peut être manipulée, se tromper, ou encore exposer vos informations à votre insu.

Cela ne signifie pas qu’il faut rejeter ces outils. L’IA reste un formidable levier de productivité, d’innovation et de créativité. Mais elle doit être utilisée avec discernement et intelligence. Voici quelques règles simples qui peuvent aider à limiter les risques :

  • Vérifier les sources. Un numéro de téléphone, une adresse ou une information administrative doivent être confirmés sur les sites officiels. Vous pouvez d’ailleurs demander à l’IA de citer ses sources dans ses réponses, ce sera toujours plus rapide que de faire vous-même la recherche.
  • Prendre l’IA comme une aide, pas une vérité absolue. Dans le cas d’une réponse plus complexe, il vous faudra croiser les informations obtenues. Cela reste indispensable, sinon cela reviendrait à encore une fois lui louer une confiance aveugle. Une fois la réponse formulée par l’IA, il peut être rapide de vérifier ses dires en faisant soi-même une petite recherche.
  • Être attentif aux options de partage et de confidentialité. Pour éviter les mauvaises surprises, il vaut mieux lire attentivement les paramètres et désactiver tout ce qui pourrait exposer ses données. Il faut également savoir que chaque IA (Grok, Perplexity, Open AI, Claude, Mistral…) a ses propres paramètres de confidentialité.

Alors, peut-on faire confiance à l'intelligence artificielle ?

La question n’est pas tant de savoir si l’IA est digne de confiance, mais plutôt dans quelles conditions elle peut l’être. Il faut aussi se rappeler que, malgré l’évolution folle des derniers temps, nous en sommes aux prémices de l’IA. Ainsi, comme tout outil technologique, elle nécessite un cadre : transparence des algorithmes, vérification humaine des contenus sensibles, encadrement juridique clair... Ce que malheureusement nous ne trouvons pas systématiquement aujourd’hui.

Les grands acteurs du secteur promettent régulièrement des améliorations, mais les incidents récents prouvent que le chemin est encore long. L’IA est puissante, mais elle reflète aussi les failles de ses concepteurs et la malveillance de ceux qui savent les exploiter.

En définitive, il ne faut pas attendre de l’intelligence artificielle ce qu’on n’exige pas déjà d’un humain : la perfection. La confiance doit rester mesurée, éclairée et toujours accompagnée d’un esprit critique. Car face à l’IA, le meilleur garde-fou reste encore notre propre intelligence.

Sources : Washington Post, MeryCaldass/TikTok, Forbes

Martin Senecal
https://twitter.com/diaseptyl Martin Senecal Rédacteur