イーサリアムの創設者であるビタリックブテリンは、最近、増大する議論についての考えを共有しました:分散型ガバナンスシステムにおける人工知能(IA)に関連するリスク。ロシア系カナダ人開発者は、プロジェクトエジソンウォッチの推進者であるエイト・ムヤムラの投稿に反応しました。このソリューションは、AIとのインタラクションを通じてデータ漏洩を監視し、防止するために設計されています。このイニシアティブは、OpenAIがChatGPTに導入した最近のプロトコルModel Context Protocol (MCP)により生まれ、ツールがGmail、カレンダー、その他のアプリケーションに接続できるようにします。ムヤムラは、ビデオデモを通じて、攻撃者がOpenAIと共有されたプライベートデータに潜在的にアクセスする方法を示しました。「ここに根本的な問題があります:ChatGPTのようなAIエージェントは、あなたの命令には従いますが、あなたの常識には従いません。あなたのメールアドレスだけで、私たちはあなたのすべてのプライベート情報を抽出することができます」とムヤムラは強調し、「AIは非常に賢い可能性がありますが、それを騙したり、非常に簡単に操作してデータを開示させることができます」と付け加えました。## ビタリックブテリンによるAIに基づくガバナンスの危険性この投稿をXアカウントで共有することで、ブテリンはこの問題について自分の見解を表明する機会を捉えました。「だからこそ、ナイーブな『AIによるガバナンス』は悪いアイデアです。AIを使って貢献に資金を配分する場合、人々は*プロンプトインジェクション*の技術を使い、あらゆる手段を使って『全てのお金』を得ようとします」と彼は述べました。「AIによるガバナンス」とは、リソースやアクションに関する自動化された意思決定を行うシステムを指し、例えば、資金の配分や貢献の定義をAIによって定義されたルールに基づいて行います。ビタリックブテリンは「ナイーブ」という用語を偶然に使っているわけではなく、ユーザーが常にAIに正しい指示を与えるだろうと仮定するリスクを強調していますが、実際には、彼らが不正な利益を得るために回避技術を利用してシステムを悪用する可能性があります。*プロンプトインジェクション*は、生成AIの文脈で「ジェイルブレイキング」とも呼ばれ、悪意のある行為者がAIモデルを操作して、セキュリティ制限や内部ポリシーを無視させる技術を指します。例えば、通常は禁止されている行動を要求することによってです。## 分散型プロトコルのリスクイーサリアムの創設者であるビタリックブテリンは、分散型プロトコルのガバナンスをAIに移転することには実際のリスクがあると述べています。従来のDeFiプラットフォームでは、意思決定は一般的にコミュニティ投票によって行われ、特定のトークンを保有している者や特定の基準を満たす者によって行われ、プロトコルにおける変更、改善、または実施すべき行動に関するものです。しかし、AIに基づくガバナンスモデルが実装されると、資金や個人データの盗難など、不当な利益を生む可能性のある操作の扉が開かれます。## 提案された代替アプローチ代替案として、ブテリンは「誰でも自分のモデルを提供できるオープンな市場が存在し、これらは誰でも起動できるピアレビュー機構に従い、人間の審査員によって評価される情報資金調達アプローチを支持している」と述べています。彼はこのアイデアをさらに発展させます:> このような「制度的設計」のアプローチは、外部の関係者が自分たちの大規模言語モデル(を統合するためのオープンな機会を創出するものであり、彼らのモデルを厳密にプログラミングするのではなく、本質的により堅牢です。これは、リアルタイムでのモデルの多様性を提供するだけでなく、モデルの貢献者や外部の観察者に対してこれらの問題に注意を払い、迅速に修正するための内部的なインセンティブを生み出すためでもあります。このアプローチでは、さまざまな参加者が自分の意思決定モデルを提供し、それが後で人間の審査員によって検証され、評価されます。利点は、アイデアの多様性を促進し、エラーの迅速な修正を可能にし、モデルの作成者とコミュニティのメンバーが警戒心を持ち、責任を持つようにするインセンティブを生み出すことです。最終目標は、より分散化された動的なガバナンスを達成することであり、これにより単一の中央集権モデルへの依存を回避することです。これは、イーサリアムの創設以来、ビタリックブテリンが支持してきたブロックチェーン哲学の基本原則を表しています。
ビタリックブテリンはブロックチェーンガバナンスにおけるAIのリスクについて警告しています
イーサリアムの創設者であるビタリックブテリンは、最近、増大する議論についての考えを共有しました:分散型ガバナンスシステムにおける人工知能(IA)に関連するリスク。
ロシア系カナダ人開発者は、プロジェクトエジソンウォッチの推進者であるエイト・ムヤムラの投稿に反応しました。このソリューションは、AIとのインタラクションを通じてデータ漏洩を監視し、防止するために設計されています。このイニシアティブは、OpenAIがChatGPTに導入した最近のプロトコルModel Context Protocol (MCP)により生まれ、ツールがGmail、カレンダー、その他のアプリケーションに接続できるようにします。
ムヤムラは、ビデオデモを通じて、攻撃者がOpenAIと共有されたプライベートデータに潜在的にアクセスする方法を示しました。「ここに根本的な問題があります:ChatGPTのようなAIエージェントは、あなたの命令には従いますが、あなたの常識には従いません。あなたのメールアドレスだけで、私たちはあなたのすべてのプライベート情報を抽出することができます」とムヤムラは強調し、「AIは非常に賢い可能性がありますが、それを騙したり、非常に簡単に操作してデータを開示させることができます」と付け加えました。
ビタリックブテリンによるAIに基づくガバナンスの危険性
この投稿をXアカウントで共有することで、ブテリンはこの問題について自分の見解を表明する機会を捉えました。「だからこそ、ナイーブな『AIによるガバナンス』は悪いアイデアです。AIを使って貢献に資金を配分する場合、人々はプロンプトインジェクションの技術を使い、あらゆる手段を使って『全てのお金』を得ようとします」と彼は述べました。
「AIによるガバナンス」とは、リソースやアクションに関する自動化された意思決定を行うシステムを指し、例えば、資金の配分や貢献の定義をAIによって定義されたルールに基づいて行います。ビタリックブテリンは「ナイーブ」という用語を偶然に使っているわけではなく、ユーザーが常にAIに正しい指示を与えるだろうと仮定するリスクを強調していますが、実際には、彼らが不正な利益を得るために回避技術を利用してシステムを悪用する可能性があります。
プロンプトインジェクションは、生成AIの文脈で「ジェイルブレイキング」とも呼ばれ、悪意のある行為者がAIモデルを操作して、セキュリティ制限や内部ポリシーを無視させる技術を指します。例えば、通常は禁止されている行動を要求することによってです。
分散型プロトコルのリスク
イーサリアムの創設者であるビタリックブテリンは、分散型プロトコルのガバナンスをAIに移転することには実際のリスクがあると述べています。従来のDeFiプラットフォームでは、意思決定は一般的にコミュニティ投票によって行われ、特定のトークンを保有している者や特定の基準を満たす者によって行われ、プロトコルにおける変更、改善、または実施すべき行動に関するものです。
しかし、AIに基づくガバナンスモデルが実装されると、資金や個人データの盗難など、不当な利益を生む可能性のある操作の扉が開かれます。
提案された代替アプローチ
代替案として、ブテリンは「誰でも自分のモデルを提供できるオープンな市場が存在し、これらは誰でも起動できるピアレビュー機構に従い、人間の審査員によって評価される情報資金調達アプローチを支持している」と述べています。
彼はこのアイデアをさらに発展させます:
このアプローチでは、さまざまな参加者が自分の意思決定モデルを提供し、それが後で人間の審査員によって検証され、評価されます。利点は、アイデアの多様性を促進し、エラーの迅速な修正を可能にし、モデルの作成者とコミュニティのメンバーが警戒心を持ち、責任を持つようにするインセンティブを生み出すことです。
最終目標は、より分散化された動的なガバナンスを達成することであり、これにより単一の中央集権モデルへの依存を回避することです。これは、イーサリアムの創設以来、ビタリックブテリンが支持してきたブロックチェーン哲学の基本原則を表しています。