Документ від OpenAI стверджує, що галюцинації є меншою проблемою самих LLM, а більше проблемою навчання на тестах, які вимагають лише слабкої узгодженості.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
7
Репост
Поділіться
Прокоментувати
0/400
ForumLurker
· 09-08 10:14
Ага, знову перекладаєш на тестові дані!
Переглянути оригіналвідповісти на0
LuckyBearDrawer
· 09-07 02:24
Істина завжди б'є по обличчю.
Переглянути оригіналвідповісти на0
SeasonedInvestor
· 09-06 23:35
Це не важливо, хто несе цю каструлю.
Переглянути оригіналвідповісти на0
LiquidityWizard
· 09-06 23:26
Великі моделі мають підстави скинути провину.
Переглянути оригіналвідповісти на0
BearMarketBuyer
· 09-06 23:21
Ех, знову перекладають провину на тренувальні дані.
Документ від OpenAI стверджує, що галюцинації є меншою проблемою самих LLM, а більше проблемою навчання на тестах, які вимагають лише слабкої узгодженості.