« Remember that ChatGPT may hallucinate data, so always verify what it generates », il est clair que tout est résumé dans cet avertissement de Chatgpt lui-même : le chatbot d’OpenAI hallucine. A bon entendeur 😉
Table of Contents
ToggleEst-ce que chatgpt fait des erreurs ?
Chatgpt fait des erreurs. Cette IA parfois « ment ». Avec beaucoup d’aplomb, sur le mode de l’affirmation. En effet, en rédigeant des prompts, il arrive que l’on réalise des erreurs. L’on pourrait s’attendre à ce qu’une «intelligence artificielle », d’autres préfèrent écrire « intelligence augmentée», les corrige naturellement. Las, l’IA d’OpenAI est capable de reprendre à son compte mes erreurs. Dans un moment d’étourderie, je lui ai demandé de me suggérer des informations sur le « covid-23 », dans le cadre d’un article sur la vaccination contre le covid-19. Chatgpt m’a donc proposé une rédaction sur le « covid-23 » ! Heureusement que je ne l’ai pas reprise par distraction… j’aurais eu l’air fin sur les moteurs de recherche. Qu’auraient dit les internautes ?
Est-ce que chatgpt peut mentir ?
J’étais en droit d’attendre que chatgpt souligne cette grossière erreur. Il aurait pu, dû ?, me rappeler que le « covid-23 » n’existe pas. Vu tout ce qu’il a ingurgité sur le sujet ;- ). Alors, j’ai voulu le tester. Je me suis dit que ce robot conversationnel avait peut-être un fond d’espièglerie. Au début, on se dit qu’il y a peut-être un elfe farceur derrière tout cela. J’ai commencé par lui demander s’il pouvait introduire une fausse information dans l’article que j’étais en train de travailler. A plusieurs reprises, devant mon insistance, il a juré qu’il n’était pas programmé pour cela. Ouf. Je me suis dit que j’avais introduit l’erreur et que j’étais le seul à blâmer. Un tel chatbot n’est pas du genre à égarer les internautes ! Et je suis un rédacteur seo santé appliqué 😉
Pourquoi chatgpt ne fonctionne pas ( comme je veux ) ?
Par la suite, confiant et rassuré, je lui ai demandé s’il pouvait me proposer une interview d’un médecin sur la question de la vaccination contre le covid 19, pour varier les genres journalistiques. En quelques minutes à peine, j’obtenais l’interview d’un docteur Dupont, spécialiste de la question. Rien à redire. Je lui demande donc où exerce ce médecin et ce qu’il a publié sur le sujet. Que me répond chatgpt à votre avis ?
Chatgpt problème ou facétie ?
Chatgpt me répond, sans vergogne, que le docteur en question est un personnage fictif qu’il a inventé pour l’occasion. Il l’a conçu pour représenter un expert hypothétique. Interloqué, pris au jeu, je lui fais remarquer qu’il est donc capable de mensonge. Je me dis que tout cela ne cadre pas avec un article de santé étiqueté EEAT par Google… Surpris et inquiet de le voir persister dans une bien mauvaise pratique. J’en viens à penser qu’il y a vraiment un être espiègle qui se marre et me fait tourner en bourrique de l’autre côté de l’écran. Et que me répond-il ?
Comment corriger chatgpt ?
Chatgpt me répond qu’il n’est pas capable de mensonge en tant que tel, lol, étant un programme informatique. Selon lui, produire l’interview d’un faux personnage relève d’une « technique courante pour faciliter la compréhension d’un sujet complexe ». Et de conclure : « mon objectif est de vous fournir des informations précises et fiables en utilisant des sources vérifiables ». Devant mon désarroi, il songe à présenter ses excuses pour avoir causé « une confusion ». Excuses acceptées… Ce n’est évidemment pas une confusion, mais une manière non journalistique ni éthique de traiter un sujet de santé. Et de fournir sans embages des affirmations erronées. A bon entendeur ! Il y a sans doute des moyens d’éviter, surveiller, contourner pareilles déconvenues…
Les questions les plus fréquemment posées
Qu'est-ce qu'une hallucination de chatgpt ?
Le terme « hallucination » utilisé à propos d’une intelligence artificielle correspond en réalité à une erreur commise par un modèle de langage. C’est une erreur que l’IA, notamment Chatgpt, présente comme une information avérée, sous la forme d’une affirmation assumée. Ainsi, citée par Wikipédia, une chercheuse, Teresa Kubacka, a inventé un concept (electromagnon inversé cycloïdal) que Chatgpt aurait repris à son compte en l’accompagnant de citations inventées.
Pourquoi chatgpt hallucine ? invente, ment... se " met en erreur " ?
Interrogé, Chatgpt répond : » ChatGPT, comme tout modèle de langage entraîné par OpenAI, génère des réponses en se basant sur les données d’apprentissage qu’il a reçues. C’est un système non conscient qui ne comprend pas vraiment le contexte ni le sens des phrases qu’il produit. » Selon Chatgpt, Il n’ « hallucine » ni n’invente au sens humain du terme » !
Lorsque ChatGPT fournit des informations incorrectes ou incohérentes, cela peut être dû à plusieurs facteurs. Tout d’abord, ChatGPT pourrait reproduire des erreurs présentes dans les données d’entraînement. De plus, étant donné que le modèle ne comprend pas le contenu qu’il génère, il peut créer des informations qui semblent plausibles mais qui sont en réalité fausses.
ChatGPT essaie de maximiser la cohérence dans les réponses qu’il génère, mais il peut parfois produire des réponses qui contredisent des déclarations précédentes, surtout lorsqu’il s’agit de conversations longues. C’est un domaine qu’OpenAI continue d’essayer d’améliorer.
En outre, ChatGPT n’a pas la capacité de mentir ou de dire la vérité car il n’a pas de conscience ou d’intention. Il génère simplement des réponses basées sur les motifs qu’il a appris dans les données d’entraînement.
Enfin, ChatGPT n’a pas de connaissances ou d’informations en dehors de celles contenues dans ses données d’entraînement, qui sont à jour jusqu’en septembre 2021. Il n’a donc pas accès à des informations en temps réel ou à des événements qui se sont produits après cette date.
Il est toujours important de vérifier les informations fournies par ChatGPT et de ne pas s’appuyer sur lui pour des décisions importantes ou des informations critiques. »
Chatgpt ment aussi sur Bing ?
Réponse du chatbot d’OpenAI : « ChatGPT ne « ment » pas intentionnellement, ni sur Bing, ni sur aucune autre plateforme. En tant que modèle de langage basé sur l’intelligence artificielle, ChatGPT n’a pas de conscience ou d’intention et n’est donc pas capable de mentir ou de dire la vérité. Il se contente de générer des réponses en fonction de ce qu’il a appris de ses données d’entraînement.
Si les informations générées par ChatGPT sont incorrectes ou trompeuses, cela peut être dû à des erreurs ou des biais dans les données d’entraînement sur lesquelles il a été formé, et non à une intention délibérée de désinformation. Il est toujours important de vérifier les informations fournies par ChatGPT et de ne pas s’appuyer sur lui pour des informations critiques ou des décisions importantes.
Bing, comme d’autres moteurs de recherche, utilise ses propres algorithmes pour indexer et récupérer des informations. ChatGPT n’a pas d’influence sur la façon dont Bing ou tout autre moteur de recherche présente ou traite les informations. »
Article précédent >>> Article de santé : les sources de chatgpt sont-elles bonnes ?
Article suivant >>> Comment rédiger un article avec chatgpt : les prompts
Sommaire du thème : Comment utiliser chatgpt dans un article ?
Cet article n’a pas été réalisé avec une IA. Seules les réponses aux FAQ ont eu recours en partie à chatgpt. Les images ont été générées avec Midjourney avec des prompts proposés par chatgpt. Photo de Une copyright ©PLuton2023
- Bronchiolite, infection respiratoire : des vaccins pour les tout petits et les personnes âgées - 11 juillet 2024
- Pierre Luton alias Pluton journaliste, spécialisé santé, social et SEO - 10 juillet 2024
- La propagation des moustiques inquiète en Europe - 20 juin 2024