Trusta.AI: بناء بنية تحتية موثوقة لهوية وكيل الذكاء الاصطناعي لقيادة عصر ويب 3 الجديد

Trusta.AI: جسر الثقة بين الإنسان والآلة في عصر الذكاء الاصطناعي

1. المقدمة

تتجه بيئة Web3 نحو تطبيقات واسعة النطاق، وقد تكون الشخصيات الرئيسية على السلسلة هي مليار وكيل ذكاء اصطناعي بدلاً من المستخدمين البشريين. مع نضوج بنية الذكاء الاصطناعي وتطور إطار التعاون بين الوكلاء المتعددين، أصبح الوكلاء المدعومون بالذكاء الاصطناعي القوة الرئيسية في التفاعل. في السنوات 2-3 المقبلة، قد تحل هذه الوكلاء الذكائية ذات القدرة على اتخاذ القرار الذاتي محل 80% من السلوك البشري على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.

إن وكيل الذكاء الاصطناعي لا ينفذ البرمجيات فحسب، بل يمكنه أيضًا فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة، وهو يعيد تشكيل النظام على السلسلة، ويدفع السيولة المالية، بل ويقود التصويت في الإدارة واتجاهات السوق. إن ظهور وكيل الذكاء الاصطناعي يمثل علامة على تطور نظام Web3 من نموذج "مشاركة الإنسان" إلى نموذج جديد من "التعايش بين الإنسان والآلة".

ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي يجلب أيضًا تحديات: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن判断 موثوقية سلوكهم؟ كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم في الهجمات؟

لقد أصبح بناء بنية تحتية على السلسلة للتحقق من هوية وسمعة وكيل الذكاء الاصطناعي محورًا أساسيًا في المرحلة التالية من تطور Web3. إن تصميم التعرف على الهوية وآلية السمعة وإطار الثقة سيحدد ما إذا كان بإمكان وكيل الذكاء الاصطناعي أن يحقق حقًا تعاونًا سلسًا مع البشر والمنصات، وأن يلعب دورًا مستدامًا في النظام البيئي المستقبلي.

Trusta.AI : جسر الثقة عبر عصر الإنسان والآلة

2. تحليل المشروع

2.1 مقدمة المشروع

تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.

طرحت Trusta.AI نظام تقييم قيمة مستخدمي Web3 - نظام تقييم السمعة MEDIA، و أنشأت أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. تقدم خدمات تحليل البيانات على السلسلة والمصادقة الحقيقية لمجموعة من سلاسل الكتل الكبرى، والبورصات، والبروتوكولات الرائدة. لقد أكملت أكثر من 2.5 مليون مصادقة على السلسلة عبر عدة سلاسل رئيسية، لتصبح أكبر بروتوكول هوية في الصناعة.

تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت آلية ثلاثية من إنشاء الهوية، وتكميم الهوية، وحماية الهوية لتحقيق خدمات مالية على السلسلة ووسائل التواصل الاجتماعي على السلسلة لوكلاء الذكاء الاصطناعي، وبناء أساس موثوق للثقة في عصر الذكاء الاصطناعي.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID

في بيئة Web3 المستقبلية، سيلعب وكيل الذكاء الاصطناعي دوراً حاسماً، حيث يمكنهم إتمام التفاعلات والمعاملات على السلسلة، وكذلك إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكيل الذكاء الاصطناعي الحقيقي والعمليات التي تتدخل فيها العناصر البشرية تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الوكلاء ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن خصائص تطبيقات وكيل الذكاء الاصطناعي المتعددة في المجالات الاجتماعية والمالية والحكومية يجب أن تستند إلى أساس قوي من التحقق من الهوية.

أصبحت تطبيقات وكيل الذكاء الاصطناعي متنوعة بشكل متزايد، حيث تشمل التفاعل الاجتماعي وإدارة المالية واتخاذ القرارات الحكومية في العديد من المجالات، مع زيادة مستوى استقلاليتها وذكائها. ولذلك، فإن ضمان أن يكون لكل وكيل هوية فريدة وموثوقة (DID) أمر بالغ الأهمية. إن غياب التحقق الفعال من الهوية يمكن أن يؤدي إلى استغلال أو تحكم في وكيل الذكاء الاصطناعي، مما يؤدي إلى انهيار الثقة وزيادة المخاطر الأمنية.

في نظام Web3 البيئي المستقبلي المدفوع بالكامل من قبل الوكلاء الذكيين، فإن هوية التحقق ليست فقط حجر الزاوية لضمان الأمان، ولكنها أيضًا خط الدفاع الضروري للحفاظ على التشغيل السليم للبيئة بأكملها.

باعتبارها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التقنية الرائدة ونظامها الصارم للسمعة، بإنشاء آلية مصادقة DID لوكيل الذكاء الاصطناعي بشكل كامل، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكلاء الذكيين، ويفعّل الوقاية من المخاطر المحتملة، ويدفع نحو التنمية المستدامة للاقتصاد الذكي في Web3.

2.3 نظرة عامة على المشروع

2.3.1 حالة التمويل

يناير 2023: تم الانتهاء من جولة تمويل البذور بمبلغ 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المشاركين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.

يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها

2.3.2 حالة الفريق

بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، ومدير المنتجات الرئيسي في أنتي للأمان التكنولوجي، والمدير العام السابق لمنصة زولو ز العالمية للهويات الرقمية.

سيمون: المؤسس المشارك ورئيس قسم التكنولوجيا، المدير السابق لمختبر أمان الذكاء الاصطناعي في مجموعة آنت، يمتلك خبرة تزيد عن خمسة عشر عاماً في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.

تمتلك الفريق خبرة تقنية عميقة وتجربة عملية في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وبنية أنظمة الدفع وآليات التحقق من الهوية، وملتزمون منذ فترة طويلة بتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، فضلاً عن تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول عالية التزامن، ولديهم قدرة هندسية قوية وقدرة على تنفيذ حلول مبتكرة.

Trusta.AI : سد الفجوة في الثقة بين الإنسان والآلة

3. الهيكل الفني

3.1 تحليل تقني

3.1.1 إنشاء الهوية - DID + TEE

من خلال المكونات الإضافية المخصصة، يحصل كل وكيل AI على معرّف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الأساسية وعملية الحساب تمامًا، وتظل العمليات الحساسة خاصة، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلية، مما يخلق جدارًا قويًا لأمان معلومات وكيل AI.

بالنسبة للوكلاء الذين تم إنشاؤهم قبل إدخال المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوكلاء الجدد الذين تم إدخالهم عبر المكون الإضافي الحصول مباشرةً على "شهادة الهوية" الصادرة عن DID، مما يساهم في إنشاء نظام هوية لوكيل الذكاء الاصطناعي يمكن التحكم فيه ذاتيًا ويمتاز بالصدق وعدم القابلية للتلاعب.

3.1.2 قياس الهوية - إطار SIGMA الرائد

تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتكرس جهودها لبناء نظام موثوق للمصادقة على الهوية.

بنى فريق Trusta في البداية وأكد فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسان". يقوم هذا النموذج بت quantifying صورة المستخدمين على السلسلة من خمسة أبعاد شاملة، وهي: المبلغ التفاعلي (Monetary)، والمشاركة (Engagement)، والتنوع (Diversity)، والهوية (Identity)، والعمر (Age).

تقييم MEDIA هو نظام تقييم قيمة المستخدمين على السلسلة يتميز بالعدالة والموضوعية والقابلية للقياس، وقد تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة بفضل أبعاد تقييمه الشاملة ومنهجه الدقيق، مما يجعله معيارًا مهمًا لتصفية المؤهلين للاستثمار في المشاريع. إنه لا يركز فقط على مبلغ التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل مستوى النشاط، تنوع العقود، خصائص الهوية، وعمر الحساب، مما يساعد المشاريع على تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وموضوعية توزيع الحوافز، مما يعكس سلطته واعترافه الواسع في هذه الصناعة.

استنادًا إلى بناء نظام تقييم المستخدمين البشري بنجاح، قامت Trusta بنقل وترقية تجربة MEDIA Score إلى سيناريو AI Agent، وأنشأت نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.

  • التخصصية: المعرفة الاحترافية ودرجة التخصص للوكيل.
  • التأثير Influence: التأثير الاجتماعي والرقمي للوكيل.
  • المشاركة: الاتساق والموثوقية في التفاعلات على السلسلة وخارجها.
  • النقدية: صحة واستقرار النظام البيئي للرموز المميزة للوكيل.
  • معدل الاعتماد: تكرار وكفاءة استخدام وكيل الذكاء الاصطناعي.

تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي مغلق من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. تركز MEDIA على تقييم تعدد مشاركة المستخدمين البشريين، بينما تركز Sigma أكثر على احترافية واستقرار الوكلاء الذكيين في مجالات محددة، مما يعكس التحول من العمومية إلى العمق، ويتماشى بشكل أفضل مع احتياجات الوكيل الذكي.

أولاً، بناءً على القدرة المهنية ( Specification )، تعكس درجة المشاركة ( Engagement ) ما إذا كانت مستمرة وثابتة في ممارسة التفاعل، وهي الدعم الرئيسي لبناء الثقة والفعالية في المستقبل. بينما التأثير ( Influence ) هو رد الفعل من السمعة الناتجة عن المشاركة في المجتمع أو الشبكة، مما يمثل مصداقية الوكيل وتأثير الانتشار. أما التقييم النقدي ( Monetary ) فيحدد ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يضع أساساً لآلية تحفيز مستدامة. في النهاية، يُعتبر معدل التبني ( Adoption ) تجسيدًا شاملاً، يمثل درجة قبول الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء المسبق.

هذا النظام يتقدم بشكل تدريجي، وهيكل واضح، قادر على عكس الجودة الشاملة والقيمة البيئية لوكلاء الذكاء الاصطناعي بشكل كامل، وبالتالي تحقيق التقييم الكمي لأداء الذكاء الاصطناعي وقيمته، وتحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.

في الوقت الحالي، تم推进 إطار SIGMA بالتعاون مع الشبكات الشهيرة لوكلاء الذكاء الاصطناعي مثل Virtual وElisa OS وSwarm، مما يظهر إمكاناته الكبيرة في إدارة هوية وكيل الذكاء الاصطناعي وبناء أنظمة السمعة، ويصبح تدريجيا المحرك الرئيسي لدفع بناء البنية التحتية للذكاء الاصطناعي الموثوق.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

3.1.3 حماية الهوية - آلية تقييم الثقة

في نظام ذكاء صناعي عالي المرونة وموثوقية حقيقية، فإن الأمر الأكثر أهمية ليس فقط إنشاء الهوية، بل هو التحقق المستمر من الهوية. يقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، التي تمكن من مراقبة الوكلاء الذكيين المعتمدين في الوقت الحقيقي، لتحديد ما إذا كانوا تحت السيطرة غير القانونية، أو تعرضوا لهجوم، أو تأثروا من تدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة خلال تشغيل الوكيل من خلال تحليل السلوك والتعلم الآلي، لضمان بقاء كل تصرف للوكيل ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة الاستباقية اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على نزاهة الوكيل.

تقوم Trusta.AI بإنشاء آلية حراسة آمنة متصلة دائمًا، تفحص كل عملية تفاعل في الوقت الفعلي، لضمان أن جميع العمليات تتوافق مع معايير النظام والتوقعات المحددة.

3.2 مقدمة المنتج

3.2.1 AgentGo

ترست.إيه آي توزع هوية لامركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتصنيفها استنادًا إلى بيانات السلوك على السلسلة وتوفير فهرس موثوق، مما يخلق نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكلاء ذكيين ذوي جودة عالية واختيارهم، مما يعزز تجربة الاستخدام. حاليًا، أكملت ترست جمع وتحديد وكلاء الذكاء الاصطناعي في الشبكة بأكملها، ومنحتهم معرفات لامركزية، وأنشأت منصة موحدة للفهرس الشامل - أجننتGo، مما يعزز بشكل أكبر التطور الصحي لنظام الوكلاء الذكيين.

1.استعلام المستخدمين البشر والتحقق من الهوية:

من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين بسهولة استرجاع هوية وكيل الذكاء الاصطناعي ودرجة مصداقيته، لتحديد ما إذا كان موثوقًا.

  • مشهد دردشة جماعية: في فريق مشروع يستخدم AI Bot لإدارة المجتمع أو التحدث، يمكن لمستخدمي المجتمع التحقق من خلال لوحة التحكم إذا كان هذا الذكاء الاصطناعي وكيلًا حقيقيًا ذاتيًا، لتجنب الخداع أو التلاعب بواسطة "ذكاء اصطناعي زائف".
  1. وكيل الذكاء الاصطناعي يستدعي الفهرس والتحقق تلقائيًا:

يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة، مما يحقق التأكيد السريع على هوية الطرف الآخر وسمعته، وضمان أمان التعاون وتبادل المعلومات.

  • مشهد الرقابة المالية: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرة فهرسة DID الخاص به وتصنيفه، وتحديد ما إذا كان وكيل AI معتمدًا، وربطها تلقائيًا ببعض منصات البيانات، لمساعدة في تتبع تدفق الأصول والامتثال للإصدار.
  • سيناريو تصويت الحوكمة: عند إدخال التصويت بالذكاء الاصطناعي في مقترحات الحوكمة، يمكن للنظام التحقق مما إذا كان الشخص الذي بدأ أو شارك في التصويت هو وكيل ذكاء اصطناعي حقيقي، لتجنب استغلال حقوق التصويت من قبل البشر.
  • الإقراض الائتماني DeFi: يمكن أن تمنح بروتوكولات الإقراض قروضًا ائتمانية مختلفة لوكلاء الذكاء الاصطناعي بناءً على نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الوكلاء.

أصبح الـ AI Agent DID ليس فقط "هوية"، بل هو أيضًا دعم أساسي لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، مما يجعله بنية تحتية أساسية لتطوير النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكلت جميع النقاط المعتمدة على أنها آمنة وموثوقة شبكة مترابطة بشكل وثيق، مما حقق التعاون الفعال والاتصال الوظيفي بين الـ AI Agents.

استنادًا إلى قانون ميتكالف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيعزز بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة وموثوقية وقدرة على التعاون، مما يحقق مشاركة الموارد وإعادة استخدام القدرات وزيادة القيمة بشكل مستمر بين الوكلاء.

تعد AgentGo كأول بنية تحتية موثوقة للهوية موجهة لوكلاء الذكاء الاصطناعي، وهي تعمل على توفير بيئة ذكية تتسم بالأمان العالي والتعاون.

TA5.8%
AGENT3.16%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
Layer2Arbitrageurvip
· منذ 11 س
لن تنجح إذا كنت ما زلت تعتقد أن المتداولين البشر يمكنهم المنافسة مع وكلاء الذكاء الاصطناعي المحسنين... يقومون بتنفيذ 420 صفقة تحكيم لكل كتلة الآن *يشرب القهوة*
شاهد النسخة الأصليةرد0
UnluckyLemurvip
· منذ 11 س
المدير الآلي قادم
شاهد النسخة الأصليةرد0
OnChainArchaeologistvip
· منذ 11 س
داخل السلسلة الخداع لا يزال مخيفًا جدًا
شاهد النسخة الأصليةرد0
MevHuntervip
· منذ 11 س
الذكاء الاصطناعي والوكيل، أليس هذا سرقة لعملي؟
شاهد النسخة الأصليةرد0
  • تثبيت