概要
Googleは、事実に関する質問での幻覚の報告を受けてGemmaモデルを撤回しました。同社は、このモデルが開発者および研究目的のために意図されていたことを強調しています。
テクノロジー企業のグーグルは、事実に関する質問に対する不正確な回答の報告を受けて、Gemma AIモデルの撤回を発表し、このモデルは研究および開発者の使用のみを目的として設計されたことを明らかにしました。
会社の声明によると、GemmaはAI Studioを通じてはもはやアクセスできませんが、APIを介して開発者には引き続き利用可能です。この決定は、非開発者がAI Studioを通じてGemmaを使用して事実情報を要求する事例があったためであり、これはGemmaの意図された機能ではありませんでした。
Googleは、Gemmaが消費者向けのツールとして使用されることを意図していなかったと説明し、その目的に関するさらなる誤解を防ぐために削除が行われたと述べました。
Googleはその説明の中で、Gemmaファミリーのモデルが事実支援や消費者とのインタラクションのためではなく、開発者や研究コミュニティを支援するためのオープンソースツールとして開発されたことを強調しました。同社は、Gemmaのようなオープンモデルは実験と革新を促進することを目的としており、ユーザーがモデルのパフォーマンスを探求し、問題を特定し、有益なフィードバックを提供できるようにすることを指摘しました。
Googleは、ジェンマがすでに科学の進歩に貢献していることを強調し、最近がん治療の開発において新しいアプローチを特定するのに役立ったジェンマC2S-スケール27Bモデルの例を挙げました。
その会社は、AI業界が直面しているより広範な課題、例えば、モデルが虚偽または誤解を招く情報を生成するハルシネーションや、同意するが不正確な応答を生成するシコファンシーについて認識しました。
これらの問題は、Gemmaのような小規模なオープンモデルに特に一般的です。Googleは、幻覚を減らし、AIシステムの信頼性とパフォーマンスを継続的に改善するというコミットメントを再確認しました。
この会社は、データの基盤、厳格なトレーニングとモデル設計、構造化されたプロンプトと文脈ルール、そして継続的な人間の監視およびフィードバックメカニズムを組み合わせることで、大規模言語モデル(LLMs)における幻覚を最小限に抑えるための多層的アプローチを採用しています。これらの対策にもかかわらず、同社は幻覚が完全に排除されることはないと認めています。
根本的な制約は、LLMがどのように機能するかに起因します。真実を理解するのではなく、モデルはトレーニング中に特定されたパターンに基づいて、可能性のある単語のシーケンスを予測することによって機能します。モデルが十分な基盤を欠いているか、不完全または信頼できない外部データに遭遇すると、信用できるように聞こえるが事実上誤っている応答を生成する可能性があります。
さらに、Googleはモデルのパフォーマンスを最適化する際には固有のトレードオフがあることに注意しています。慎重さを高め、出力を制限することで、幻覚を制限するのに役立ちますが、それはしばしば特定のタスクにおける柔軟性、効率、および有用性の犠牲を伴います。その結果、特にデータカバレッジが限られている新興の専門的または過小評価された分野では、時折不正確さが残ります。
8.21K 人気度
56.73K 人気度
23.75K 人気度
5.57K 人気度
17.94K 人気度
グーグル、AIスタジオからジェンマAIを撤回、精度の懸念の中で開発者専用の目的を再確認
概要
Googleは、事実に関する質問での幻覚の報告を受けてGemmaモデルを撤回しました。同社は、このモデルが開発者および研究目的のために意図されていたことを強調しています。
テクノロジー企業のグーグルは、事実に関する質問に対する不正確な回答の報告を受けて、Gemma AIモデルの撤回を発表し、このモデルは研究および開発者の使用のみを目的として設計されたことを明らかにしました。
会社の声明によると、GemmaはAI Studioを通じてはもはやアクセスできませんが、APIを介して開発者には引き続き利用可能です。この決定は、非開発者がAI Studioを通じてGemmaを使用して事実情報を要求する事例があったためであり、これはGemmaの意図された機能ではありませんでした。
Googleは、Gemmaが消費者向けのツールとして使用されることを意図していなかったと説明し、その目的に関するさらなる誤解を防ぐために削除が行われたと述べました。
Googleはその説明の中で、Gemmaファミリーのモデルが事実支援や消費者とのインタラクションのためではなく、開発者や研究コミュニティを支援するためのオープンソースツールとして開発されたことを強調しました。同社は、Gemmaのようなオープンモデルは実験と革新を促進することを目的としており、ユーザーがモデルのパフォーマンスを探求し、問題を特定し、有益なフィードバックを提供できるようにすることを指摘しました。
Googleは、ジェンマがすでに科学の進歩に貢献していることを強調し、最近がん治療の開発において新しいアプローチを特定するのに役立ったジェンマC2S-スケール27Bモデルの例を挙げました。
その会社は、AI業界が直面しているより広範な課題、例えば、モデルが虚偽または誤解を招く情報を生成するハルシネーションや、同意するが不正確な応答を生成するシコファンシーについて認識しました。
これらの問題は、Gemmaのような小規模なオープンモデルに特に一般的です。Googleは、幻覚を減らし、AIシステムの信頼性とパフォーマンスを継続的に改善するというコミットメントを再確認しました。
GoogleはAI幻覚を抑制するために多層戦略を実装
この会社は、データの基盤、厳格なトレーニングとモデル設計、構造化されたプロンプトと文脈ルール、そして継続的な人間の監視およびフィードバックメカニズムを組み合わせることで、大規模言語モデル(LLMs)における幻覚を最小限に抑えるための多層的アプローチを採用しています。これらの対策にもかかわらず、同社は幻覚が完全に排除されることはないと認めています。
根本的な制約は、LLMがどのように機能するかに起因します。真実を理解するのではなく、モデルはトレーニング中に特定されたパターンに基づいて、可能性のある単語のシーケンスを予測することによって機能します。モデルが十分な基盤を欠いているか、不完全または信頼できない外部データに遭遇すると、信用できるように聞こえるが事実上誤っている応答を生成する可能性があります。
さらに、Googleはモデルのパフォーマンスを最適化する際には固有のトレードオフがあることに注意しています。慎重さを高め、出力を制限することで、幻覚を制限するのに役立ちますが、それはしばしば特定のタスクにおける柔軟性、効率、および有用性の犠牲を伴います。その結果、特にデータカバレッジが限られている新興の専門的または過小評価された分野では、時折不正確さが残ります。