# AI与DePIN的交汇:分布式计算网络的崛起自2023年以来,AI和DePIN成为Web3领域的热门趋势,市值分别达到300亿美元和230亿美元。本文聚焦两者交叉领域,探讨相关协议的发展。在AI技术栈中,DePIN网络通过计算资源为AI提供实用性。大型科技公司的发展导致GPU短缺,使其他开发人员难以获得足够的GPU进行计算。这通常会导致开发人员选择中心化云提供商,但由于长期硬件合同不够灵活,效率较低。DePIN提供了更灵活、更具成本效益的替代方案,通过代币奖励激励资源贡献。AI领域的DePIN将GPU资源从个人所有者众包到数据中心,为需要硬件访问的用户提供统一供应。这不仅为开发人员提供定制化和按需访问,还为GPU所有者带来额外收入。市场上有许多AI DePIN网络,本文将探讨各协议的作用、目标及成就,以便了解它们之间的差异。## AI DePIN网络概述**Render**是提供GPU计算能力的P2P网络先驱,最初专注于内容创作渲染,后来扩展到AI计算任务。要点:- 由云图形公司OTOY创立- GPU网络被娱乐行业大公司使用 - 与Stability AI等合作,集成AI模型与3D渲染工作流- 批准多个计算客户端,集成更多DePIN网络GPU**Akash**定位为支持存储、GPU和CPU计算的"超级云"替代品。利用容器平台和Kubernetes管理的计算节点等开发者友好工具,可跨环境无缝部署软件。要点:- 针对从通用计算到网络托管的广泛计算任务- AkashML允许GPU网络在Hugging Face上运行超15,000个模型- 托管了Mistral AI的LLM模型聊天机器人等应用- 构建元宇宙、AI部署等平台利用其Supercloud**io.net**提供对分布式GPU云集群的访问,专门用于AI和ML用例。聚合来自数据中心、加密矿工等领域的GPU。要点:- IO-SDK与PyTorch等框架兼容,多层架构可动态扩展- 支持创建3种不同类型集群,2分钟内启动- 与Render、Filecoin等合作整合GPU资源**Gensyn**提供专注于机器学习和深度学习计算的GPU能力。声称通过学习证明等概念实现更高效的验证机制。要点:- V100等效GPU每小时成本约0.40美元,大幅节省- 可对预训练基础模型进行微调完成具体任务- 提供去中心化、全球共有的基础模型**Aethir**专门搭载企业GPU,聚焦AI、ML、云游戏等计算密集型领域。网络中的容器充当执行云应用的虚拟端点,实现低延迟体验。要点:- 扩展到云手机服务,与APhone合作推出去中心化云智能手机- 与NVIDIA等Web2大公司建立广泛合作- 与CARV、Magic Eden等Web3项目合作**Phala Network**充当Web3 AI解决方案的执行层。其区块链是无需信任的云计算方案,通过可信执行环境(TEE)设计处理隐私问题。要点:- 充当可验证计算的协处理器协议,使AI代理能访问链上资源- AI代理合约可通过Redpill获得OpenAI等顶级语言模型- 未来将包括zk-proofs、MPC、FHE等多重证明系统- 未来支持H100等TEE GPU,提升计算能力## 项目比较| | Render | Akash | io.net | Gensyn | Aethir | Phala ||--------|------------|------------------|---------------------|--------|--------------|---------|| 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU || 业务重点 | 图形渲染和AI | 云计算、渲染和AI | AI | AI | AI、云游戏和电信 | 链上AI执行 || AI任务类型| 推理 | 训练和推理 | 训练和推理 | 训练 | 训练 | 执行 || 工作定价 | 基于表现定价 | 反向拍卖 | 市场定价 | 市场定价 | 招标系统 | 权益计算 || 区块链 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot|| 数据隐私 | 加密和散列 | mTLS身份验证 | 数据加密 | 安全映射 | 加密 | TEE || 工作费用 | 0.5-5%/工作 | 20% USDC, 4% AKT| 2% USDC,0.25%准备金 | 费用低廉 | 20%/session | 与质押成比例|| 安全 | 渲染证明 | 权益证明 | 计算证明 | 权益证明 | 渲染能力证明 | 继承自中继链|| 完成证明 | - | - | 时间锁证明 | 学习证明 | 渲染工作证明 | TEE证明 || 质量保证 | 争议 | - | - | 核实和举报 | 检查节点 | 远程证明 || GPU集群 | 否 | 是 | 是 | 是 | 是 | 否 |### 重要性**集群和并行计算的可用性**分布式计算框架实现GPU集群,提高训练效率和可扩展性。训练复杂AI模型需要强大计算能力,通常依靠分布式计算。例如,OpenAI的GPT-4模型有超1.8万亿参数,用时3-4个月,使用约25,000个Nvidia A100 GPU。大多数项目现已整合集群实现并行计算。io.net与其他项目合作,已在Q1部署超3,800个集群。Render虽不支持集群,但将单帧分解到多节点同时处理。Phala支持CPU工作器集群化。集群框架对AI工作流网络很重要,但满足开发者需求的集群GPU数量和类型是另一问题。**数据隐私**AI模型开发需要大量数据集,可能涉及敏感信息。Samsung因担心隐私曾禁用ChatGPT,微软38TB数据泄露更凸显AI安全重要性。各种数据隐私方法对于还权数据提供商至关重要。大多数项目使用某种数据加密保护隐私。Render使用加密和散列,io.net和Gensyn采用数据加密,Akash使用mTLS身份验证。io.net与Mind Network合作推出全同态加密(FHE),允许处理加密数据无需解密。这比现有加密技术更好地保护隐私。Phala Network引入可信执行环境(TEE),防止外部访问或修改数据。它还结合zk-proofs用于RiscZero zkVM集成。### 计算完成证明和质量检查由于服务范围广,最终质量可能不符合用户标准。完成证明表明GPU确实用于所需服务,质量检查对用户有益。Gensyn和Aethir生成完成证明,io.net证明GPU性能充分利用无问题。Gensyn和Aethir进行质量检查。Gensyn使用验证者重新运行部分证明,举报人再次检查。Aethir使用检查节点评估服务质量,处罚不达标服务。Render建议争议解决流程,审查委员会可削减问题节点。Phala生成TEE证明,确保AI代理执行链上操作。## 硬件统计数据| | Render | Akash | io.net | Gensyn | Aethir | Phala ||-------------|--------|-------|--------|------------|------------|--------|| GPU数量 | 5600 | 384 | 38177 | - | 40000+ | - || CPU数量 | 114 | 14672 | 5433 | - | - | 30000+ || H100/A100数量| - | 157 | 2330 | - | 2000+ | - || H100费用/小时 | - | $1.46 | $1.19 | - | - | - || A100费用/小时 | - | $1.37 | $1.50 | $0.55 (预计) | $0.33 (预计) | - |### 高性能GPU的要求AI模型训练需要顶级GPU如Nvidia A100和H100。H100推理性能是A100的4倍,成为首选,特别是对大公司而言。去中心化GPU市场要与Web2竞争,不仅要价格低,还要满足实际需求。2023年Nvidia向大型科技公司交付50万台H100,获取同等硬件成本高昂。考虑这些项目能以低成本引入的硬件数量很重要。各项目提供计算能力不同。Akash仅有150多个H100和A100,io.net和Aethir各有2000多个。预训练LLM通常需要248到2000多个GPU集群,后两个项目更适合大型模型计算。目前去中心化GPU服务成本已远低于中心化服务。Gensyn和Aethir声称A100级硬件每小时不到1美元,但仍需时间验证。网络连接GPU集群虽有大量GPU和低成本,但与NVLink连接GPU相比内存受限。NVLink支持GPU间直接通信,适合参数多、数据集大的LLM。尽管如此,去中心化GPU网络仍为动态工作负载需求或需要灵活性的用户提供强大计算能力和可扩展性,为构建更多AI用例创造机会。### 提供消费级GPU/CPUCPU在AI模型训练中也很重要,用于数据预处理到内存管理。消费级GPU可用于微调预训练模型或小规模训练。考虑到85%以上消费者GPU闲置,Render、Akash和io.net等项目也服务这部分市场。这让它们可以专注大规模密集计算、通用小规模渲染或两者混合。## 结论AI DePIN领域仍较新,面临挑战。例如,io.net曾被指控伪造GPU数量,后通过工作量证明解决。尽管如此,这些网络上执行的任务和硬件数量显著增加,凸显对Web2云提供商替代品的需求增长。同时硬件提供商激增显示供应前未充分利用。这证明AI DePIN网络的产品市场契合度,有效解决需求和供应挑战。展望未来,AI有望成为蓬勃发展的万亿美元市场,这些分散GPU网络将在为开发者提供经济高效的计算替代方案方面发挥关键作用。通过不断弥合需求和供应差距,这些网络将为AI和计算基础设施的未来格局做出重大贡献。
AI DePIN网络:分布式GPU计算助力AI发展
AI与DePIN的交汇:分布式计算网络的崛起
自2023年以来,AI和DePIN成为Web3领域的热门趋势,市值分别达到300亿美元和230亿美元。本文聚焦两者交叉领域,探讨相关协议的发展。
在AI技术栈中,DePIN网络通过计算资源为AI提供实用性。大型科技公司的发展导致GPU短缺,使其他开发人员难以获得足够的GPU进行计算。这通常会导致开发人员选择中心化云提供商,但由于长期硬件合同不够灵活,效率较低。
DePIN提供了更灵活、更具成本效益的替代方案,通过代币奖励激励资源贡献。AI领域的DePIN将GPU资源从个人所有者众包到数据中心,为需要硬件访问的用户提供统一供应。这不仅为开发人员提供定制化和按需访问,还为GPU所有者带来额外收入。
市场上有许多AI DePIN网络,本文将探讨各协议的作用、目标及成就,以便了解它们之间的差异。
AI DePIN网络概述
Render是提供GPU计算能力的P2P网络先驱,最初专注于内容创作渲染,后来扩展到AI计算任务。
要点:
Akash定位为支持存储、GPU和CPU计算的"超级云"替代品。利用容器平台和Kubernetes管理的计算节点等开发者友好工具,可跨环境无缝部署软件。
要点:
io.net提供对分布式GPU云集群的访问,专门用于AI和ML用例。聚合来自数据中心、加密矿工等领域的GPU。
要点:
Gensyn提供专注于机器学习和深度学习计算的GPU能力。声称通过学习证明等概念实现更高效的验证机制。
要点:
Aethir专门搭载企业GPU,聚焦AI、ML、云游戏等计算密集型领域。网络中的容器充当执行云应用的虚拟端点,实现低延迟体验。
要点:
Phala Network充当Web3 AI解决方案的执行层。其区块链是无需信任的云计算方案,通过可信执行环境(TEE)设计处理隐私问题。
要点:
项目比较
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | 业务重点 | 图形渲染和AI | 云计算、渲染和AI | AI | AI | AI、云游戏和电信 | 链上AI执行 | | AI任务类型| 推理 | 训练和推理 | 训练和推理 | 训练 | 训练 | 执行 | | 工作定价 | 基于表现定价 | 反向拍卖 | 市场定价 | 市场定价 | 招标系统 | 权益计算 | | 区块链 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot| | 数据隐私 | 加密和散列 | mTLS身份验证 | 数据加密 | 安全映射 | 加密 | TEE | | 工作费用 | 0.5-5%/工作 | 20% USDC, 4% AKT| 2% USDC,0.25%准备金 | 费用低廉 | 20%/session | 与质押成比例| | 安全 | 渲染证明 | 权益证明 | 计算证明 | 权益证明 | 渲染能力证明 | 继承自中继链| | 完成证明 | - | - | 时间锁证明 | 学习证明 | 渲染工作证明 | TEE证明 | | 质量保证 | 争议 | - | - | 核实和举报 | 检查节点 | 远程证明 | | GPU集群 | 否 | 是 | 是 | 是 | 是 | 否 |
重要性
集群和并行计算的可用性
分布式计算框架实现GPU集群,提高训练效率和可扩展性。训练复杂AI模型需要强大计算能力,通常依靠分布式计算。例如,OpenAI的GPT-4模型有超1.8万亿参数,用时3-4个月,使用约25,000个Nvidia A100 GPU。
大多数项目现已整合集群实现并行计算。io.net与其他项目合作,已在Q1部署超3,800个集群。Render虽不支持集群,但将单帧分解到多节点同时处理。Phala支持CPU工作器集群化。
集群框架对AI工作流网络很重要,但满足开发者需求的集群GPU数量和类型是另一问题。
数据隐私
AI模型开发需要大量数据集,可能涉及敏感信息。Samsung因担心隐私曾禁用ChatGPT,微软38TB数据泄露更凸显AI安全重要性。各种数据隐私方法对于还权数据提供商至关重要。
大多数项目使用某种数据加密保护隐私。Render使用加密和散列,io.net和Gensyn采用数据加密,Akash使用mTLS身份验证。
io.net与Mind Network合作推出全同态加密(FHE),允许处理加密数据无需解密。这比现有加密技术更好地保护隐私。
Phala Network引入可信执行环境(TEE),防止外部访问或修改数据。它还结合zk-proofs用于RiscZero zkVM集成。
计算完成证明和质量检查
由于服务范围广,最终质量可能不符合用户标准。完成证明表明GPU确实用于所需服务,质量检查对用户有益。
Gensyn和Aethir生成完成证明,io.net证明GPU性能充分利用无问题。Gensyn和Aethir进行质量检查。Gensyn使用验证者重新运行部分证明,举报人再次检查。Aethir使用检查节点评估服务质量,处罚不达标服务。Render建议争议解决流程,审查委员会可削减问题节点。Phala生成TEE证明,确保AI代理执行链上操作。
硬件统计数据
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU数量 | 5600 | 384 | 38177 | - | 40000+ | - | | CPU数量 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100数量| - | 157 | 2330 | - | 2000+ | - | | H100费用/小时 | - | $1.46 | $1.19 | - | - | - | | A100费用/小时 | - | $1.37 | $1.50 | $0.55 (预计) | $0.33 (预计) | - |
高性能GPU的要求
AI模型训练需要顶级GPU如Nvidia A100和H100。H100推理性能是A100的4倍,成为首选,特别是对大公司而言。
去中心化GPU市场要与Web2竞争,不仅要价格低,还要满足实际需求。2023年Nvidia向大型科技公司交付50万台H100,获取同等硬件成本高昂。考虑这些项目能以低成本引入的硬件数量很重要。
各项目提供计算能力不同。Akash仅有150多个H100和A100,io.net和Aethir各有2000多个。预训练LLM通常需要248到2000多个GPU集群,后两个项目更适合大型模型计算。
目前去中心化GPU服务成本已远低于中心化服务。Gensyn和Aethir声称A100级硬件每小时不到1美元,但仍需时间验证。
网络连接GPU集群虽有大量GPU和低成本,但与NVLink连接GPU相比内存受限。NVLink支持GPU间直接通信,适合参数多、数据集大的LLM。
尽管如此,去中心化GPU网络仍为动态工作负载需求或需要灵活性的用户提供强大计算能力和可扩展性,为构建更多AI用例创造机会。
提供消费级GPU/CPU
CPU在AI模型训练中也很重要,用于数据预处理到内存管理。消费级GPU可用于微调预训练模型或小规模训练。
考虑到85%以上消费者GPU闲置,Render、Akash和io.net等项目也服务这部分市场。这让它们可以专注大规模密集计算、通用小规模渲染或两者混合。
结论
AI DePIN领域仍较新,面临挑战。例如,io.net曾被指控伪造GPU数量,后通过工作量证明解决。
尽管如此,这些网络上执行的任务和硬件数量显著增加,凸显对Web2云提供商替代品的需求增长。同时硬件提供商激增显示供应前未充分利用。这证明AI DePIN网络的产品市场契合度,有效解决需求和供应挑战。
展望未来,AI有望成为蓬勃发展的万亿美元市场,这些分散GPU网络将在为开发者提供经济高效的计算替代方案方面发挥关键作用。通过不断弥合需求和供应差距,这些网络将为AI和计算基础设施的未来格局做出重大贡献。