Un document d'OpenAI indique que les hallucinations sont moins un problème des LLM eux-mêmes et plus un problème de la formation sur des tests qui n'exigent qu'une faible cohérence.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
7
Reposter
Partager
Commentaire
0/400
ForumLurker
· 09-08 10:14
Ah ah, on rejette encore la faute sur les données de test.
Voir l'originalRépondre0
LuckyBearDrawer
· 09-07 02:24
La vérité fait toujours mal.
Voir l'originalRépondre0
SeasonedInvestor
· 09-06 23:35
Peu importe qui porte cette casserole.
Voir l'originalRépondre0
LiquidityWizard
· 09-06 23:26
Les grands modèles ont des raisons de passer la responsabilité.
Voir l'originalRépondre0
BearMarketBuyer
· 09-06 23:21
Tsk, encore en train de rejeter la faute sur les données d'entraînement.
Un document d'OpenAI indique que les hallucinations sont moins un problème des LLM eux-mêmes et plus un problème de la formation sur des tests qui n'exigent qu'une faible cohérence.