谷歌從AI工作室撤回Gemma AI,重申開發者專用目的,因準確性問題

簡要介紹

谷歌在關於事實問題的幻覺報告後撤回了其Gemma模型,並強調該模型旨在用於開發和研究目的。

谷歌撤回Gemma AI於AI工作室的使用,重申僅供開發者使用的目的,因準確性問題而引發關注

科技公司谷歌宣布撤回其Gemma AI模型,原因是有報道稱該模型對事實問題的回答不準確,並澄清該模型僅用於研究和開發人員。

根據公司的聲明,Gemma不再通過AI Studio訪問,但仍然可以通過API供開發者使用。這個決定是由於非開發者通過AI Studio使用Gemma請求事實信息的情況,這並不是它的預期功能。

谷歌解釋說,Gemma從來不是爲了作爲面向消費者的工具,其移除是爲了防止對其目的產生進一步的誤解。

在其澄清中,谷歌強調,Gemma系列模型是作爲開源工具開發的,目的是支持開發者和研究社區,而不是用於事實援助或消費者互動。該公司指出,像Gemma這樣的開放模型旨在鼓勵實驗和創新,使用戶能夠探索模型性能,識別問題並提供寶貴反饋。

谷歌指出,傑瑪已經爲科學進步做出了貢獻,引用了傑瑪C2S-Scale 27B模型的例子,該模型最近在識別癌症治療開發的新方法中發揮了作用。

公司承認了人工智能行業面臨的更廣泛挑戰,例如幻覺——當模型生成虛假或誤導性信息時——和諂媚——當它們產生令人同意但不準確的回應時。

這些問題在像Gemma這樣的較小開放模型中尤其常見。谷歌重申了其減少幻覺並持續提高其人工智能系統的可靠性和性能的承諾。

谷歌實施多層次策略以遏制人工智能幻覺

該公司採用多層次的方法來最小化其大型語言模型(LLMs)中的幻覺,結合數據基礎、嚴格訓練和模型設計、結構化提示和上下文規則,以及持續的人類監督和反饋機制。盡管採取了這些措施,公司承認幻覺無法完全消除。

其根本限制源於大型語言模型(LLMs)的運作方式。這些模型並不具備對真相的理解,而是通過預測基於訓練期間識別的模式的可能單詞序列來運作。當模型缺乏足夠的基礎知識或遇到不完整或不可靠的外部數據時,它可能會生成聽起來可信但實際上不正確的響應。

此外,谷歌指出,在優化模型性能時存在固有的權衡。增加謹慎和限制輸出可以幫助限制幻覺,但往往以某些任務的靈活性、效率和實用性爲代價。因此,偶爾的不準確性仍然存在,特別是在新興、專業或代表性不足的數據覆蓋有限的領域。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
  • 熱門 Gate Fun查看更多
  • 市值:$3933.39持有人數:2
    0.01%
  • 市值:$3675.86持有人數:1
    0.00%
  • 市值:$3831.03持有人數:1
    0.00%
  • 市值:$3978.53持有人數:2
    0.01%
  • 市值:$4112.68持有人數:3
    0.18%
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)