Un document d'OpenAI indique que les hallucinations sont moins un problème des LLM eux-mêmes et plus un problème de la formation sur des tests qui n'exigent qu'une faible cohérence.

MORE1.56%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 7
  • Reposter
  • Partager
Commentaire
0/400
ForumLurkervip
· 09-08 10:14
Ah ah, on rejette encore la faute sur les données de test.
Voir l'originalRépondre0
LuckyBearDrawervip
· 09-07 02:24
La vérité fait toujours mal.
Voir l'originalRépondre0
SeasonedInvestorvip
· 09-06 23:35
Peu importe qui porte cette casserole.
Voir l'originalRépondre0
LiquidityWizardvip
· 09-06 23:26
Les grands modèles ont des raisons de passer la responsabilité.
Voir l'originalRépondre0
BearMarketBuyervip
· 09-06 23:21
Tsk, encore en train de rejeter la faute sur les données d'entraînement.
Voir l'originalRépondre0
SandwichVictimvip
· 09-06 23:12
Je savais que ce n'était pas la faute de l'IA.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)