Смотря на то, как многие проекты блокчейна разбиваются о стену производительности, я всё время думал, что проблема может заключаться не в том, что код недостаточно умный, а в ограниченности мышления базовой архитектуры.
В настоящее время доказательство с нулевым разглашением и вычисления на основе ИИ сталкиваются с тремя серьезными проблемами: черной дырой вычислительной мощности, низкой эффективностью параллелизма и неконтролируемыми затратами. Когда алгоритмы становятся настолько сложными, что их скорость измеряется миллиардами операций, то даже самые изощренные программные оптимизации похожи на попытку вычерпать океан ложкой; фундаментальное ограничение требует фундаментального решения.
Это заставляет меня совершенно согласиться с подходом Cysic @cysic_xyz: настоящий прорыв может заключаться не в том, как писать код, а в том, как выполнять код. Они напрямую встроили ASIC-чипы, специально разработанные для ZK-валидации, а также GPU, способные к массовому параллелизму, в самую суть уровня консенсуса. Это уже не внешнее ускорение, а то, что механизм консенсуса сам по себе управляется самой мощной вычислительной мощностью.
Это приносит глубокое изменение: ценность консенсуса переходит от потребления энергии или замораживания капитала к реальному вкладу в вычисления, безопасность и эффективность сети напрямую связаны с той эффективной вычислительной мощностью, которую она может предоставить.
Результатом является то, что Rollups могут действительно работать более эффективно, затраты на ZK-доказательства значительно снижаются, сложные вычисления наконец могут соответствовать скорости сетевой передачи. Когда аппаратное обеспечение и консенсус объединяются, Блокчейн может получить настоящую внутреннюю силу для поддержки следующего поколения интернета.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Смотря на то, как многие проекты блокчейна разбиваются о стену производительности, я всё время думал, что проблема может заключаться не в том, что код недостаточно умный, а в ограниченности мышления базовой архитектуры.
В настоящее время доказательство с нулевым разглашением и вычисления на основе ИИ сталкиваются с тремя серьезными проблемами: черной дырой вычислительной мощности, низкой эффективностью параллелизма и неконтролируемыми затратами. Когда алгоритмы становятся настолько сложными, что их скорость измеряется миллиардами операций, то даже самые изощренные программные оптимизации похожи на попытку вычерпать океан ложкой; фундаментальное ограничение требует фундаментального решения.
Это заставляет меня совершенно согласиться с подходом Cysic @cysic_xyz: настоящий прорыв может заключаться не в том, как писать код, а в том, как выполнять код. Они напрямую встроили ASIC-чипы, специально разработанные для ZK-валидации, а также GPU, способные к массовому параллелизму, в самую суть уровня консенсуса. Это уже не внешнее ускорение, а то, что механизм консенсуса сам по себе управляется самой мощной вычислительной мощностью.
Это приносит глубокое изменение: ценность консенсуса переходит от потребления энергии или замораживания капитала к реальному вкладу в вычисления, безопасность и эффективность сети напрямую связаны с той эффективной вычислительной мощностью, которую она может предоставить.
Результатом является то, что Rollups могут действительно работать более эффективно, затраты на ZK-доказательства значительно снижаются, сложные вычисления наконец могут соответствовать скорости сетевой передачи. Когда аппаратное обеспечение и консенсус объединяются, Блокчейн может получить настоящую внутреннюю силу для поддержки следующего поколения интернета.