Un documento de OpenAI dice que las alucinaciones son menos un problema con los LLM en sí y más un problema con el entrenamiento en pruebas que solo requieren una consistencia débil.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
7
Republicar
Compartir
Comentar
0/400
ForumLurker
· 09-08 10:14
Ahá, ¡otra vez echando la culpa a los datos de prueba!
Ver originalesResponder0
LuckyBearDrawer
· 09-07 02:24
La verdad siempre es muy dolorosa.
Ver originalesResponder0
SeasonedInvestor
· 09-06 23:35
A quién le importa quién carga esta olla.
Ver originalesResponder0
LiquidityWizard
· 09-06 23:26
El modelo grande tiene razones para echar la culpa.
Ver originalesResponder0
BearMarketBuyer
· 09-06 23:21
Tsk, ya están echando la culpa a los datos de entrenamiento nuevamente.
Un documento de OpenAI dice que las alucinaciones son menos un problema con los LLM en sí y más un problema con el entrenamiento en pruebas que solo requieren una consistencia débil.