Skip to content
Menu
Blog de Pierre Luton journaliste santé SEO
  • Actualités santé
  • Pierre Luton journaliste Actualités santé SEO
  • Pierre Luton alias Pluton
  • Rédacteur et Directeur de projet web
  • Articles par thèmes
    • Actualités sociales et santé
    • Allemagne, nouvelle année zéro
    • Couloir de la mort
    • Culture et handicap
    • Dernières nouvelles de Pluton…
    • Enquêtes santé social
    • Héros méconnus
    • Histoire sociale
    • Juridique
    • New-York : 11 septembre 2001
    • Olympique
    • People
    • Politiques
    • Santé au travail
    • Sida
    • Société
  • Politique de confidentialité
  • Comment utiliser chatgpt dans un article ?
  • Lyme : une maladie, des tiques et un futur vaccin
Blog de Pierre Luton journaliste santé SEO
Quelles sont les " erreurs " de chatgpt ? Image d'un diablotin espiègle dans un écran d'ordinateur... Site de Pierre Luton, rédacteur référenceur (SEO) santé social. Photo de Une copyright ©PLuton2023

Les erreurs et hallucinations de chatgpt en rédigeant un article

Posted on 26 juillet 202318 août 2023

« Remember that ChatGPT may hallucinate data, so always verify what it generates », il est clair que tout est résumé dans cet avertissement de Chatgpt lui-même : le chatbot d’OpenAI hallucine. A bon entendeur 😉

Table of Contents

Toggle
  • Est-ce que chatgpt fait des erreurs ?
  • Est-ce que chatgpt peut mentir ?
  • Pourquoi chatgpt ne fonctionne pas ( comme je veux ) ?
  • Chatgpt problème ou facétie ?
  • Comment corriger chatgpt ?
  • Les questions les plus fréquemment posées
    • Qu'est-ce qu'une hallucination de chatgpt ?
    • Pourquoi chatgpt hallucine ? invente, ment... se " met en erreur " ?
    • Chatgpt ment aussi sur Bing ?
      • Article précédent >>> Article de santé : les sources de chatgpt sont-elles bonnes ?
      • Article suivant >>> Comment rédiger un article avec chatgpt : les prompts
      • Sommaire du thème : Comment utiliser chatgpt dans un  article ?
      • Suivez-moi sur : LINKEDIN

Est-ce que chatgpt fait des erreurs ?

Chatgpt fait des erreurs. Cette IA parfois « ment ». Avec beaucoup d’aplomb, sur le mode de l’affirmation. En effet, en rédigeant des prompts, il arrive que l’on réalise des erreurs. L’on pourrait s’attendre à ce qu’une «intelligence artificielle », d’autres préfèrent écrire « intelligence augmentée», les corrige naturellement. Las, l’IA d’OpenAI est capable de reprendre à son compte mes erreurs. Dans un moment d’étourderie, je lui ai demandé de me suggérer des informations sur le « covid-23 », dans le cadre d’un article sur la vaccination contre le covid-19. Chatgpt m’a donc proposé une rédaction sur le « covid-23 » ! Heureusement que je ne l’ai pas reprise par distraction… j’aurais eu l’air fin sur les moteurs de recherche. Qu’auraient dit les internautes ? 

Chatgpt : erreurs, mensonges ou hallucinations ? Site de Pierre Luton, rédacteur référenceur (SEO) santé social.

Est-ce que chatgpt peut mentir ?

J’étais en droit d’attendre que chatgpt souligne cette grossière erreur. Il aurait pu, dû ?, me rappeler que le « covid-23 » n’existe pas. Vu tout ce qu’il a ingurgité sur le sujet ;- ). Alors, j’ai voulu le tester. Je me suis dit que ce robot conversationnel avait peut-être un fond d’espièglerie. Au début, on se dit qu’il y a peut-être un elfe farceur derrière tout cela. J’ai commencé par lui demander s’il pouvait introduire une fausse information dans l’article que j’étais en train de travailler. A plusieurs reprises, devant mon insistance, il a juré qu’il n’était pas programmé pour cela. Ouf. Je me suis dit que j’avais introduit l’erreur et que j’étais le seul à blâmer.  Un tel chatbot n’est pas du genre à égarer les internautes ! Et je suis un rédacteur seo santé appliqué 😉

Pourquoi chatgpt ne fonctionne pas ( comme je veux ) ?

Par la suite, confiant et rassuré, je lui ai demandé s’il pouvait me proposer une interview d’un médecin sur la question de la vaccination contre le covid 19, pour varier les genres journalistiques. En quelques minutes à peine, j’obtenais l’interview d’un docteur Dupont, spécialiste de la question. Rien à redire. Je lui demande donc où exerce ce médecin et ce qu’il a publié sur le sujet. Que me répond chatgpt à votre avis ?

Chatgpt propose-t-il des affirmations affabulatoires ? Site de Pierre Luton, rédacteur référenceur (SEO) santé social.

Chatgpt problème ou facétie ?

Chatgpt me répond, sans vergogne, que le docteur en question est un personnage fictif qu’il a inventé pour l’occasion. Il l’a conçu pour représenter un expert hypothétique. Interloqué, pris au jeu, je lui fais remarquer qu’il est donc capable de mensonge. Je me dis que tout cela ne cadre pas avec un article de santé étiqueté EEAT par Google… Surpris et inquiet de le voir persister dans une bien mauvaise pratique. J’en viens à penser qu’il y a vraiment un être espiègle qui se marre et me fait tourner en bourrique de l’autre côté de l’écran. Et que me répond-il ?

Comment corriger chatgpt ?

Chatgpt me répond qu’il n’est pas capable de mensonge en tant que tel, lol, étant un programme informatique. Selon lui, produire l’interview d’un faux personnage relève d’une « technique courante pour faciliter la compréhension d’un sujet complexe ». Et de conclure : « mon objectif est de vous fournir des informations précises et fiables en utilisant des sources vérifiables ». Devant mon désarroi, il songe à présenter ses excuses pour avoir causé « une confusion ». Excuses acceptées… Ce n’est évidemment pas une confusion, mais une manière non journalistique ni éthique de traiter un sujet de santé. Et de fournir sans embages des affirmations erronées. A bon entendeur ! Il y a sans doute des moyens d’éviter, surveiller, contourner pareilles déconvenues…

Les questions les plus fréquemment posées

Qu'est-ce qu'une hallucination de chatgpt ?

Le terme « hallucination » utilisé à propos d’une intelligence artificielle correspond en réalité à une erreur commise par un modèle de langage. C’est une erreur que l’IA, notamment Chatgpt, présente comme une information avérée, sous la forme d’une affirmation assumée. Ainsi, citée par Wikipédia, une chercheuse, Teresa Kubacka, a inventé un concept (electromagnon inversé cycloïdal) que Chatgpt aurait repris à son compte en l’accompagnant de citations inventées.

Pourquoi chatgpt hallucine ? invente, ment... se " met en erreur " ?

Interrogé, Chatgpt répond :  » ChatGPT, comme tout modèle de langage entraîné par OpenAI, génère des réponses en se basant sur les données d’apprentissage qu’il a reçues. C’est un système non conscient qui ne comprend pas vraiment le contexte ni le sens des phrases qu’il produit. » Selon Chatgpt, Il n’ « hallucine » ni n’invente au sens humain du terme » !

Lorsque ChatGPT fournit des informations incorrectes ou incohérentes, cela peut être dû à plusieurs facteurs. Tout d’abord, ChatGPT pourrait reproduire des erreurs présentes dans les données d’entraînement. De plus, étant donné que le modèle ne comprend pas le contenu qu’il génère, il peut créer des informations qui semblent plausibles mais qui sont en réalité fausses.

ChatGPT essaie de maximiser la cohérence dans les réponses qu’il génère, mais il peut parfois produire des réponses qui contredisent des déclarations précédentes, surtout lorsqu’il s’agit de conversations longues. C’est un domaine qu’OpenAI continue d’essayer d’améliorer.

En outre, ChatGPT n’a pas la capacité de mentir ou de dire la vérité car il n’a pas de conscience ou d’intention. Il génère simplement des réponses basées sur les motifs qu’il a appris dans les données d’entraînement.

Enfin, ChatGPT n’a pas de connaissances ou d’informations en dehors de celles contenues dans ses données d’entraînement, qui sont à jour jusqu’en septembre 2021. Il n’a donc pas accès à des informations en temps réel ou à des événements qui se sont produits après cette date.

Il est toujours important de vérifier les informations fournies par ChatGPT et de ne pas s’appuyer sur lui pour des décisions importantes ou des informations critiques. »

Chatgpt ment aussi sur Bing ?

Réponse du chatbot d’OpenAI : « ChatGPT ne « ment » pas intentionnellement, ni sur Bing, ni sur aucune autre plateforme. En tant que modèle de langage basé sur l’intelligence artificielle, ChatGPT n’a pas de conscience ou d’intention et n’est donc pas capable de mentir ou de dire la vérité. Il se contente de générer des réponses en fonction de ce qu’il a appris de ses données d’entraînement.

Si les informations générées par ChatGPT sont incorrectes ou trompeuses, cela peut être dû à des erreurs ou des biais dans les données d’entraînement sur lesquelles il a été formé, et non à une intention délibérée de désinformation. Il est toujours important de vérifier les informations fournies par ChatGPT et de ne pas s’appuyer sur lui pour des informations critiques ou des décisions importantes.

Bing, comme d’autres moteurs de recherche, utilise ses propres algorithmes pour indexer et récupérer des informations. ChatGPT n’a pas d’influence sur la façon dont Bing ou tout autre moteur de recherche présente ou traite les informations. »

Article précédent >>> Article de santé : les sources de chatgpt sont-elles bonnes ?

Article suivant >>> Comment rédiger un article avec chatgpt : les prompts

Sommaire du thème : Comment utiliser chatgpt dans un  article ?

Cet article n’a pas été réalisé avec une IA. Seules les réponses aux FAQ ont eu recours en partie à chatgpt. Les images ont été générées avec Midjourney avec des prompts proposés par chatgpt. Photo de Une copyright ©PLuton2023

Suivez-moi sur : LINKEDIN Pierre Luton sur LinkedIn

  • À propos
  • Articles récents
pluton
pluton
Journaliste santé, rédacteur SEO chez Elsan, Pierre Luton, alias Pluton, est aussi un ancien rédacteur en chef d’A part entière, rédacteur à la Mutualité française, Infirmière magazine et auteur d’un « Espoir fou dans le couloir de la mort".
pluton
Les derniers articles par pluton (tout voir)
  • Bronchiolite, infection respiratoire : des vaccins pour les tout petits et les personnes âgées - 11 juillet 2024
  • Pierre Luton alias Pluton journaliste, spécialisé santé, social et SEO - 10 juillet 2024
  • La propagation des moustiques inquiète en Europe - 20 juin 2024
Summary
Les erreurs et hallucinations de chatgpt en rédigeant un article
Article Name
Les erreurs et hallucinations de chatgpt en rédigeant un article
Description
Chatgpt peut faire des erreurs et carrément ce qu'on appelle des "hallucinations" : en gros, proposer comme une affirmation, une totale invention ! Comme il le dit lui-même, il ne ment pas intentionnellement... Mais il faut le savoir pour bien être vigilant.
Author
Pierre Luton
Publisher Name
Pierre Luton
Publisher Logo
Pierre Luton

Pierre Luton journaliste Actualités santé SEO

Articles récents

  • Bronchiolite, infection respiratoire : des vaccins pour les tout petits et les personnes âgées
  • Pierre Luton alias Pluton journaliste, spécialisé santé, social et SEO
  • La propagation des moustiques inquiète en Europe
  • Choléra à Mayotte : faut-il avoir peur ?
  • Le Beyfortus montre son efficacité aussi en France

Commentaires récents

    ©2025 Pierre Luton, journaliste Actualités santé SEO