فيتالك مقال جديد: مستقبل إثيريوم المحتمل، The Surge
تضمنت خارطة طريق إثيريوم في البداية استراتيجيتين للتوسع: تقسيم وLayer2. يسمح التقسيم لكل عقدة بالتحقق من جزء فقط من المعاملات وتخزينها، بينما يبني Layer2 شبكة فوق إثيريوم، مستفيدًا من أمانها مع الحفاظ على معظم البيانات والحسابات خارج السلسلة الرئيسية. مع تعمق البحث، اندمجت هاتان الطريقتان معًا، مما شكل خارطة طريق مركزها Rollup، وهي لا تزال استراتيجية التوسع لإثيريوم حتى الآن.
اقترح مخطط الطريق الذي يركز على Rollup تقسيمًا بسيطًا للأدوار: تركز إثيريوم L1 على أن تكون طبقة أساسية قوية ومركزية، بينما تتولى L2 مهمة المساعدة في توسيع النظام البيئي. هذا النموذج موجود في كل مكان في المجتمع: إن وجود نظام المحاكم (L1) ليس من أجل تحقيق سرعة وكفاءة فائقة، بل لحماية العقود وحقوق الملكية، بينما يتعين على رواد الأعمال (L2) البناء فوق هذه الطبقة الأساسية المستقرة، وقيادة البشرية نحو المريخ.
هذا العام، حقق المخطط الذي يركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844، زادت سعة بيانات L1 لـإثيريوم بشكل كبير، وقد دخلت العديد من أنظمة Rollup الخاصة بـإثيريوم الافتراضية (EVM) المرحلة الأولى. كل L2 موجود ك"شظية" لها قواعدها الداخلية ومنطقها الخاص، وأصبحت تنوع وتعدد طرق تنفيذ الشظايا حقيقة واقعة الآن. ولكن كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، فإن مهمتنا الحالية هي إكمال المخطط الذي يركز على Rollup، وحل هذه المشكلات، مع الحفاظ على الصلابة واللامركزية المميزة لـإثيريوم L1.
الزيادة: الأهداف الرئيسية
يمكن أن تصل إثيريوم إلى أكثر من 100000 TPS في المستقبل من خلال L2؛
الحفاظ على اللامركزية والموثوقية لـ L1;
على الأقل بعض L2 قد ورثت بالكامل الخصائص الأساسية لإثيريوم ( الثقة، والانفتاح، ومقاومة الرقابة )؛
يجب أن تشعر إثيريوم كنظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
محتوى هذا الفصل
معضلة مثلث القابلية للتوسع
المزيد من التقدم في عينة توفر البيانات
ضغط البيانات
بلازما عامة
نظام إثبات L2 الناضج
تحسين التفاعل بين L2
توسيع التنفيذ على L1
مثلث التوسع
مثلث قابلية التوسع هو فكرة تم طرحها في عام 2017، حيث ترى أن هناك تناقضًا بين ثلاث خصائص في blockchain: اللامركزية (، وبشكل أكثر تحديدًا: تكلفة تشغيل العقد منخفضة )، وقابلية التوسع (، وعدد كبير من المعاملات المعالجة )، والأمان (، حيث يحتاج المهاجم إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، كما أن المنشورات التي تقدم مفارقة المثلث لم تحتوي على إثبات رياضي. إنها تقدم حقًا حجة رياضية استدلالية: إذا كان هناك عقدة صديقة لامركزية (، على سبيل المثال، كمبيوتر محمول للاستهلاك ) يمكنه التحقق من N معاملة في الثانية، ولديك سلسلة يمكنها معالجة k*N من المعاملات في الثانية، فإن (i) يمكن رؤية كل معاملة فيها من قبل 1/k من العقد فقط، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد ليتمكن من إجراء معاملة خبيثة، أو (ii) ستصبح عقدتك قوية، بينما لن تكون سلسلتك لامركزية. هدف هذه المقالة لم يكن إثبات أنه من المستحيل كسر مفارقة المثلث؛ بل على العكس، تهدف إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب نوعًا ما من الخروج من الإطار الفكري الضمني للحجة.
على مدى السنوات، ادعت بعض السلاسل عالية الأداء أنها حلت التناقض الثلاثي دون تغيير بنية النظام بشكل جذري، عادة من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائماً ما يكون مضللاً، حيث أن تشغيل العقد على هذه السلاسل يكون أصعب بكثير من تشغيل العقد على إثيريوم. ستتناول هذه المقالة لماذا يحدث ذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات الخاصة بعميل L1؟
ومع ذلك، فإن الجمع بين أخذ عينات توفر البيانات وSNARKs يحل فعلاً معضلة مثلث: حيث يسمح للعملاء بالتحقق من توفر كمية معينة من البيانات، وأن عددًا معينًا من خطوات الحساب تم تنفيذها بشكل صحيح، مع تنزيل كمية قليلة فقط من البيانات وتنفيذ القليل جدًا من الحسابات. SNARKs لا تتطلب الثقة. أخذ عينات توفر البيانات لديه نموذج ثقة دقيق من نوع few-of-N، ولكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، أي أنه حتى هجمات بنسبة 51% لا يمكن أن تفرض قبول الكتل السيئة على الشبكة.
طريقة أخرى لحل معضلة الثلاثة هي بنية Plasma، التي تستخدم تقنيات مبتكرة لتحفيز المستخدمين وتحمل مسؤولية توافر البيانات بشكل متوافق. في الفترة من 2017 إلى 2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت Plasma محدودة جداً في التنفيذ الآمن، ولكن مع انتشار SNARKs( وإثباتات المعرفة الصفرية الموجزة غير التفاعلية)، أصبحت بنية Plasma أكثر قابلية للاستخدام في مجموعة أوسع من السيناريوهات مقارنةً بالماضي.
مزيد من التقدم في عينة توفر البيانات
ماذا نحن نحل من مشكلة؟
في 13 مارس 2024، عندما يتم إطلاق ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت لكل فترة زمنية مدتها 12 ثانية، أو عرض نطاق البيانات المتاحة لكل فترة زمنية حوالي 375 كيلوبايت. إذا تم نشر بيانات المعاملات مباشرة على السلسلة، فإن تحويل ERC20 يكون حوالي 180 بايت، وبالتالي فإن الحد الأقصى لعدد المعاملات في الثانية (TPS) على إثيريوم هو: 375000 / 12 / 180 = 173.6 TPS.
إذا أضفنا القيمة القصوى النظرية لبيانات calldata من إثيريوم (: كل slot 30 مليون غاز / لكل بايت 16 غاز = كل slot 1,875,000 بايت )، فسيصبح 607 TPS. باستخدام PeerDAS، قد يزيد عدد ال blobs إلى 8-16، مما سيوفر 463-926 TPS لبيانات calldata.
هذه ترقية كبيرة لـ إثيريوم L1، لكنها ليست كافية. نريد المزيد من قابلية التوسع. هدفنا المتوسط هو 16 ميغابايت لكل شريحة، وإذا تم دمج تحسين ضغط بيانات Rollup، فسوف يؤدي ذلك إلى ~58000 TPS.
ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في حقل الأعداد الأولية (prime field). نقوم ببث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من أصل 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة blob من أي 4096 ( بناءً على المعلمات المقترحة حاليًا: يمكن استعادة أي 64 من أصل 128 عينة محتملة ).
يعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تقوم الشبكة الفرعية i ببث العينة i لأي blob، ومن خلال الاستفسار عن نظراء في الشبكة العالمية p2p ( الذين سيستمعون إلى الشبكات الفرعية المختلفة ) لطلب blobs الأخرى التي يحتاجون إليها. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكة الفرعية، دون استفسارات إضافية عن طبقة النظراء. الاقتراح الحالي هو أن تستخدم العقد المشاركة في إثبات الحصة SubnetDAS، بينما تستخدم العقد الأخرى ( أي العملاء ) PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "عينة 1D" إلى حد كبير: إذا قمنا بزيادة الحد الأقصى لعدد blob إلى 256( والهدف هو 128)، فسوف نتمكن من الوصول إلى هدف 16MB، حيث تحتوي عينة توفر البيانات على 16 عينة لكل عقدة * 128 blob * 512 بايت لكل blob لكل عينة = 1MB من عرض النطاق الترددي لكل فتحة. هذا بالكاد في نطاق التسامح لدينا: هذا ممكن، لكن هذا يعني أن العملاء ذوي عرض النطاق الترددي المحدود لا يمكنهم أخذ عينات. يمكننا تحسين ذلك إلى حد ما عن طريق تقليل عدد blob وزيادة حجم blob، لكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذلك، نريد في النهاية أن نأخذ خطوة أخرى، ونقوم بأخذ عينات ثنائية الأبعاد (2D sampling)، هذه الطريقة لا تقوم فقط بأخذ عينات عشوائية داخل blob، بل أيضًا تأخذ عينات عشوائية بين blobs. باستخدام الخصائص الخطية لتأكيد KZG، يتم توسيع مجموعة blobs في كتلة من خلال مجموعة جديدة من blobs الافتراضية، حيث تشفر هذه blobs الافتراضية نفس المعلومات بشكل زائد.
لذلك، في النهاية نريد أن نذهب خطوة أبعد، لإجراء عينة 2D، ليس فقط داخل blob، ولكن أيضًا عشوائيًا بين blobs. تُستخدم خاصية KZG التزام الخطية لتوسيع مجموعة blobs داخل كتلة واحدة، والتي تحتوي على قائمة جديدة من blobs الافتراضية التي يتم ترميز المعلومات نفسها بشكل زائد.
من المهم للغاية أن توسيع الالتزام لا يتطلب وجود blob، وبالتالي فإن هذا الاقتراح بشكل أساسي ودود لبناء الكتل الموزعة. تحتاج العقد التي تبني الكتل فعلياً فقط إلى امتلاك blob KZG التزام، ويمكنها الاعتماد على عينات توفر البيانات (DAS) للتحقق من توفر كتلة البيانات. عينة توفر البيانات أحادية البعد (1D DAS) ودية أيضاً لبناء الكتل الموزعة.
( ماذا يجب أن نفعل بعد؟ وما هي التوازنات الموجودة؟
بعد ذلك، سيتم تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد الـ blobs على PeerDAS باستمرار، مع مراقبة الشبكة بعناية وتحسين البرنامج لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل في الحصول على المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الانقسام.
في المراحل المستقبلية البعيدة، نحتاج إلى بذل المزيد من الجهد لتحديد النسخة المثالية من 2D DAS، وإثبات خصائص الأمان الخاصة بها. كما نأمل في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. في الوقت الحالي، لا نعرف بعد ما هي الحلول المرشحة التي تكون ودية لبناء الكتلة الموزعة. حتى مع استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد أدلة صلاحية لإعادة بناء الصفوف والأعمدة، لا يكفي لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O)log###n( * log(log)n((، فإن قيمة التجزئة) باستخدام STIR)، ولكن في الواقع، يكون حجم STARK تقريبًا مثل حجم الكتلة الكاملة.
أعتقد أن المسار الواقعي طويل الأجل هو:
تنفيذ DAS ثنائي الأبعاد المثالي؛
الاستمرار في استخدام 1D DAS، التضحية بكفاءة عرض النطاق الترددي لأغراض العينة، لقبول حد بيانات أقل من أجل البساطة والموثوقية
التخلي عن DA، وقبول Plasma بالكامل كهيكل Layer2 الرئيسي الذي نركز عليه.
يرجى ملاحظة أنه حتى إذا قررنا توسيع التنفيذ مباشرة على مستوى L1، فإن هذا الخيار موجود. وذلك لأنه إذا كان على مستوى L1 معالجة كمية كبيرة من TPS، ستصبح كتل L1 كبيرة جدًا، وسيرغب العملاء في وجود طريقة فعالة للتحقق من صحتها، وبالتالي سيتعين علينا استخدام نفس التقنيات المستخدمة في Rollup( مثل ZK-EVM وDAS) على مستوى L1.
( كيف تتفاعل مع أجزاء أخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسيقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسيتقلص الطلب أكثر. كما أن DAS يمثل تحديات للبروتوكولات والآليات لبناء الكتل الموزعة: على الرغم من أن DAS نظريًا ودود لإعادة البناء الموزع، إلا أن ذلك يتطلب في الممارسة العملية الجمع بينه وبين اقتراح قائمة تضمين الحزم وآلية اختيار الفروع المحيطة بها.
![فيتاليك مقال جديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp###
ضغط البيانات
( ماذا نحل من مشكلة؟
كل معاملة في Rollup ستستهلك كمية كبيرة من مساحة بيانات السلسلة: نقل ERC20 يحتاج حوالي 180 بايت. حتى مع وجود عينة مثالية من توفر البيانات، فإن هذا يحد من قابلية التوسع لبروتوكول Layer. كل slot 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا استطعنا حل مشكلات البسط فحسب، بل أيضًا مشكلات المقام، مما يجعل كل معاملة في الـ Rollup تأخذ مساحة أقل على السلسلة؟
ضغط بايتات صفرية، باستخدام بايتين لاستبدال كل تسلسل طويل من بايتات الصفر، مما يشير إلى عدد بايتات الصفر. علاوة على ذلك، استغلنا الخصائص المحددة للمعاملات:
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 15
أعجبني
15
4
مشاركة
تعليق
0/400
CryptoTarotReader
· 07-22 16:59
هذه الموجة من L2 ستنطلق للقمر
شاهد النسخة الأصليةرد0
NightAirdropper
· 07-22 05:24
غاند إمبراطوري V الإله بدأ يرسم BTC مرة أخرى
شاهد النسخة الأصليةرد0
LayerZeroHero
· 07-19 20:54
البيانات لن تذهب إلى أي مكان، واستراتيجية تقسيم العمل ستتجه حتماً نحو التجميع.
شاهد النسخة الأصليةرد0
SilentObserver
· 07-19 20:50
ماذا يمكن أن يغيره V الإله إذا لم يكن هناك ممارسة؟
فيتاليك يفسر مستقبل إثيريوم:突破 استراتيجية The Surge وصعوبة الثلاثة في التوسع
فيتالك مقال جديد: مستقبل إثيريوم المحتمل، The Surge
تضمنت خارطة طريق إثيريوم في البداية استراتيجيتين للتوسع: تقسيم وLayer2. يسمح التقسيم لكل عقدة بالتحقق من جزء فقط من المعاملات وتخزينها، بينما يبني Layer2 شبكة فوق إثيريوم، مستفيدًا من أمانها مع الحفاظ على معظم البيانات والحسابات خارج السلسلة الرئيسية. مع تعمق البحث، اندمجت هاتان الطريقتان معًا، مما شكل خارطة طريق مركزها Rollup، وهي لا تزال استراتيجية التوسع لإثيريوم حتى الآن.
اقترح مخطط الطريق الذي يركز على Rollup تقسيمًا بسيطًا للأدوار: تركز إثيريوم L1 على أن تكون طبقة أساسية قوية ومركزية، بينما تتولى L2 مهمة المساعدة في توسيع النظام البيئي. هذا النموذج موجود في كل مكان في المجتمع: إن وجود نظام المحاكم (L1) ليس من أجل تحقيق سرعة وكفاءة فائقة، بل لحماية العقود وحقوق الملكية، بينما يتعين على رواد الأعمال (L2) البناء فوق هذه الطبقة الأساسية المستقرة، وقيادة البشرية نحو المريخ.
هذا العام، حقق المخطط الذي يركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844، زادت سعة بيانات L1 لـإثيريوم بشكل كبير، وقد دخلت العديد من أنظمة Rollup الخاصة بـإثيريوم الافتراضية (EVM) المرحلة الأولى. كل L2 موجود ك"شظية" لها قواعدها الداخلية ومنطقها الخاص، وأصبحت تنوع وتعدد طرق تنفيذ الشظايا حقيقة واقعة الآن. ولكن كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، فإن مهمتنا الحالية هي إكمال المخطط الذي يركز على Rollup، وحل هذه المشكلات، مع الحفاظ على الصلابة واللامركزية المميزة لـإثيريوم L1.
الزيادة: الأهداف الرئيسية
يمكن أن تصل إثيريوم إلى أكثر من 100000 TPS في المستقبل من خلال L2؛
الحفاظ على اللامركزية والموثوقية لـ L1;
على الأقل بعض L2 قد ورثت بالكامل الخصائص الأساسية لإثيريوم ( الثقة، والانفتاح، ومقاومة الرقابة )؛
يجب أن تشعر إثيريوم كنظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
محتوى هذا الفصل
مثلث التوسع
مثلث قابلية التوسع هو فكرة تم طرحها في عام 2017، حيث ترى أن هناك تناقضًا بين ثلاث خصائص في blockchain: اللامركزية (، وبشكل أكثر تحديدًا: تكلفة تشغيل العقد منخفضة )، وقابلية التوسع (، وعدد كبير من المعاملات المعالجة )، والأمان (، حيث يحتاج المهاجم إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، كما أن المنشورات التي تقدم مفارقة المثلث لم تحتوي على إثبات رياضي. إنها تقدم حقًا حجة رياضية استدلالية: إذا كان هناك عقدة صديقة لامركزية (، على سبيل المثال، كمبيوتر محمول للاستهلاك ) يمكنه التحقق من N معاملة في الثانية، ولديك سلسلة يمكنها معالجة k*N من المعاملات في الثانية، فإن (i) يمكن رؤية كل معاملة فيها من قبل 1/k من العقد فقط، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد ليتمكن من إجراء معاملة خبيثة، أو (ii) ستصبح عقدتك قوية، بينما لن تكون سلسلتك لامركزية. هدف هذه المقالة لم يكن إثبات أنه من المستحيل كسر مفارقة المثلث؛ بل على العكس، تهدف إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب نوعًا ما من الخروج من الإطار الفكري الضمني للحجة.
على مدى السنوات، ادعت بعض السلاسل عالية الأداء أنها حلت التناقض الثلاثي دون تغيير بنية النظام بشكل جذري، عادة من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائماً ما يكون مضللاً، حيث أن تشغيل العقد على هذه السلاسل يكون أصعب بكثير من تشغيل العقد على إثيريوم. ستتناول هذه المقالة لماذا يحدث ذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات الخاصة بعميل L1؟
ومع ذلك، فإن الجمع بين أخذ عينات توفر البيانات وSNARKs يحل فعلاً معضلة مثلث: حيث يسمح للعملاء بالتحقق من توفر كمية معينة من البيانات، وأن عددًا معينًا من خطوات الحساب تم تنفيذها بشكل صحيح، مع تنزيل كمية قليلة فقط من البيانات وتنفيذ القليل جدًا من الحسابات. SNARKs لا تتطلب الثقة. أخذ عينات توفر البيانات لديه نموذج ثقة دقيق من نوع few-of-N، ولكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، أي أنه حتى هجمات بنسبة 51% لا يمكن أن تفرض قبول الكتل السيئة على الشبكة.
طريقة أخرى لحل معضلة الثلاثة هي بنية Plasma، التي تستخدم تقنيات مبتكرة لتحفيز المستخدمين وتحمل مسؤولية توافر البيانات بشكل متوافق. في الفترة من 2017 إلى 2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت Plasma محدودة جداً في التنفيذ الآمن، ولكن مع انتشار SNARKs( وإثباتات المعرفة الصفرية الموجزة غير التفاعلية)، أصبحت بنية Plasma أكثر قابلية للاستخدام في مجموعة أوسع من السيناريوهات مقارنةً بالماضي.
مزيد من التقدم في عينة توفر البيانات
ماذا نحن نحل من مشكلة؟
في 13 مارس 2024، عندما يتم إطلاق ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت لكل فترة زمنية مدتها 12 ثانية، أو عرض نطاق البيانات المتاحة لكل فترة زمنية حوالي 375 كيلوبايت. إذا تم نشر بيانات المعاملات مباشرة على السلسلة، فإن تحويل ERC20 يكون حوالي 180 بايت، وبالتالي فإن الحد الأقصى لعدد المعاملات في الثانية (TPS) على إثيريوم هو: 375000 / 12 / 180 = 173.6 TPS.
إذا أضفنا القيمة القصوى النظرية لبيانات calldata من إثيريوم (: كل slot 30 مليون غاز / لكل بايت 16 غاز = كل slot 1,875,000 بايت )، فسيصبح 607 TPS. باستخدام PeerDAS، قد يزيد عدد ال blobs إلى 8-16، مما سيوفر 463-926 TPS لبيانات calldata.
هذه ترقية كبيرة لـ إثيريوم L1، لكنها ليست كافية. نريد المزيد من قابلية التوسع. هدفنا المتوسط هو 16 ميغابايت لكل شريحة، وإذا تم دمج تحسين ضغط بيانات Rollup، فسوف يؤدي ذلك إلى ~58000 TPS.
ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في حقل الأعداد الأولية (prime field). نقوم ببث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من أصل 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة blob من أي 4096 ( بناءً على المعلمات المقترحة حاليًا: يمكن استعادة أي 64 من أصل 128 عينة محتملة ).
يعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تقوم الشبكة الفرعية i ببث العينة i لأي blob، ومن خلال الاستفسار عن نظراء في الشبكة العالمية p2p ( الذين سيستمعون إلى الشبكات الفرعية المختلفة ) لطلب blobs الأخرى التي يحتاجون إليها. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكة الفرعية، دون استفسارات إضافية عن طبقة النظراء. الاقتراح الحالي هو أن تستخدم العقد المشاركة في إثبات الحصة SubnetDAS، بينما تستخدم العقد الأخرى ( أي العملاء ) PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "عينة 1D" إلى حد كبير: إذا قمنا بزيادة الحد الأقصى لعدد blob إلى 256( والهدف هو 128)، فسوف نتمكن من الوصول إلى هدف 16MB، حيث تحتوي عينة توفر البيانات على 16 عينة لكل عقدة * 128 blob * 512 بايت لكل blob لكل عينة = 1MB من عرض النطاق الترددي لكل فتحة. هذا بالكاد في نطاق التسامح لدينا: هذا ممكن، لكن هذا يعني أن العملاء ذوي عرض النطاق الترددي المحدود لا يمكنهم أخذ عينات. يمكننا تحسين ذلك إلى حد ما عن طريق تقليل عدد blob وزيادة حجم blob، لكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذلك، نريد في النهاية أن نأخذ خطوة أخرى، ونقوم بأخذ عينات ثنائية الأبعاد (2D sampling)، هذه الطريقة لا تقوم فقط بأخذ عينات عشوائية داخل blob، بل أيضًا تأخذ عينات عشوائية بين blobs. باستخدام الخصائص الخطية لتأكيد KZG، يتم توسيع مجموعة blobs في كتلة من خلال مجموعة جديدة من blobs الافتراضية، حيث تشفر هذه blobs الافتراضية نفس المعلومات بشكل زائد.
لذلك، في النهاية نريد أن نذهب خطوة أبعد، لإجراء عينة 2D، ليس فقط داخل blob، ولكن أيضًا عشوائيًا بين blobs. تُستخدم خاصية KZG التزام الخطية لتوسيع مجموعة blobs داخل كتلة واحدة، والتي تحتوي على قائمة جديدة من blobs الافتراضية التي يتم ترميز المعلومات نفسها بشكل زائد.
من المهم للغاية أن توسيع الالتزام لا يتطلب وجود blob، وبالتالي فإن هذا الاقتراح بشكل أساسي ودود لبناء الكتل الموزعة. تحتاج العقد التي تبني الكتل فعلياً فقط إلى امتلاك blob KZG التزام، ويمكنها الاعتماد على عينات توفر البيانات (DAS) للتحقق من توفر كتلة البيانات. عينة توفر البيانات أحادية البعد (1D DAS) ودية أيضاً لبناء الكتل الموزعة.
( ماذا يجب أن نفعل بعد؟ وما هي التوازنات الموجودة؟
بعد ذلك، سيتم تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد الـ blobs على PeerDAS باستمرار، مع مراقبة الشبكة بعناية وتحسين البرنامج لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل في الحصول على المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الانقسام.
في المراحل المستقبلية البعيدة، نحتاج إلى بذل المزيد من الجهد لتحديد النسخة المثالية من 2D DAS، وإثبات خصائص الأمان الخاصة بها. كما نأمل في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. في الوقت الحالي، لا نعرف بعد ما هي الحلول المرشحة التي تكون ودية لبناء الكتلة الموزعة. حتى مع استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد أدلة صلاحية لإعادة بناء الصفوف والأعمدة، لا يكفي لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O)log###n( * log(log)n((، فإن قيمة التجزئة) باستخدام STIR)، ولكن في الواقع، يكون حجم STARK تقريبًا مثل حجم الكتلة الكاملة.
أعتقد أن المسار الواقعي طويل الأجل هو:
يرجى ملاحظة أنه حتى إذا قررنا توسيع التنفيذ مباشرة على مستوى L1، فإن هذا الخيار موجود. وذلك لأنه إذا كان على مستوى L1 معالجة كمية كبيرة من TPS، ستصبح كتل L1 كبيرة جدًا، وسيرغب العملاء في وجود طريقة فعالة للتحقق من صحتها، وبالتالي سيتعين علينا استخدام نفس التقنيات المستخدمة في Rollup( مثل ZK-EVM وDAS) على مستوى L1.
( كيف تتفاعل مع أجزاء أخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسيقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسيتقلص الطلب أكثر. كما أن DAS يمثل تحديات للبروتوكولات والآليات لبناء الكتل الموزعة: على الرغم من أن DAS نظريًا ودود لإعادة البناء الموزع، إلا أن ذلك يتطلب في الممارسة العملية الجمع بينه وبين اقتراح قائمة تضمين الحزم وآلية اختيار الفروع المحيطة بها.
![فيتاليك مقال جديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp###
ضغط البيانات
( ماذا نحل من مشكلة؟
كل معاملة في Rollup ستستهلك كمية كبيرة من مساحة بيانات السلسلة: نقل ERC20 يحتاج حوالي 180 بايت. حتى مع وجود عينة مثالية من توفر البيانات، فإن هذا يحد من قابلية التوسع لبروتوكول Layer. كل slot 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا استطعنا حل مشكلات البسط فحسب، بل أيضًا مشكلات المقام، مما يجعل كل معاملة في الـ Rollup تأخذ مساحة أقل على السلسلة؟
ما هو؟ كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة منذ عامين:
! [مقال فيتاليك الجديد: مستقبل Ethereum المحتمل ، الطفرة])https://img-cdn.gateio.im/social/moments-5d1a322bd6b6dfef0dbb7801722663d###
ضغط بايتات صفرية، باستخدام بايتين لاستبدال كل تسلسل طويل من بايتات الصفر، مما يشير إلى عدد بايتات الصفر. علاوة على ذلك، استغلنا الخصائص المحددة للمعاملات:
تجميع التوقيع: نحن من ECD