Gate 广场「创作者认证激励计划」优质创作者持续招募中!
立即加入,发布优质内容,参与活动即可瓜分月度 $10,000+ 创作奖励!
认证申请步骤:
1️⃣ 打开 App 首页底部【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】,提交申请等待审核
立即报名:https://www.gate.com/questionnaire/7159
豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000 丰厚奖励等你拿!
活动详情:https://www.gate.com/announcements/article/47889
去中心化存储一直在效率和成本之间反复拉扯。最近火起来的Walrus协议用擦除编码技术动了一些传统方案的根基。
说白了,老方案都是靠「堆硬盘」——把数据完整复制多份存在全网各节点。为了确保数据不丢,有些协议甚至要复制20倍、30倍,想存1TB数据实际要消耗20TB硬盘。这买卖有点亏。
Walrus的打法不一样。它把原始数据切碎、编码后,分散存储在全球节点上。这儿的妙处在于——恢复数据不用集齐所有碎片。只要凑够总数的25%就行。这样一来,冗余需求从之前的十多倍直接砍到4-5倍,硬件成本狠狠降了75%左右。
更绝的是,拜占庭容错能力没打折扣。即使某些节点宕机或搞坏事,数据依然能完整恢复。这种数学上的优雅设计,算是找到了安全性和经济性的平衡点。
这种成本结构的变化意义不小。对开发者和企业来说,去中心化存储第一次有机会在成本上和AWS S3、Google Cloud Storage这类中心化巨头掰手腕。