此前,PowerBeats曾报导过有关能源消耗、环境保护领域的新闻,关注到哈佛大学的环境污染问题研究、美国参议院《2025年清洁云法案》、Meta的核电能源的采购协议亚马逊耗资100亿美元在北卡罗来纳州建设新的数据中心等最新动态。

这些因数据、AI发展而产生的能源消耗和环境问题是一个持续受到关注的议题。这一议题也伴随着区块链行业一直在寻找“工作量证明(PoW)”之外的替代方案——传统挖矿太消耗能源且不产生实际价值。而与此同时,AI 却在飞速发展,尤其是 2022 年之后,AI领域的大模型、推理服务、分布式训练等对算力、芯片的需求激增。

本文聚焦被看作全新领域的去中心化 AI 生态,分析能源消耗以及环境问题和AI生态发展如何共处,二者又如何相互影响并最终呈现什么样的局面?

去中心化AI生态的核心理念可以很简单的归结为一句话:让全球数以千万计的 GPU、NPU 和 TPU 设备,不只是用来算哈希,而是用来训练模型、运行推理、生成隐私保护所需的零知识证明。即把原本“浪费”的资源(计算、存储、通信、网络等),变成推动 AI 发展的力量。

目前,分布式训练网络、推理网络和GPU算力市场初步形成了去中心化AI的三大支柱。

去中心化 AI 的三大支柱

分布式训练网络

分布式训练网络训练一个大模型需要协调成百上千个节点,每个节点要处理梯度计算、参数同步、数据分发等工作,目的是打破数据中心对大模型训练的垄断,让任何人都能贡献算力并从中受益。

分布式推理网络

一旦模型训练完成,传统做法是把模型部署到集中式的云服务器上,比如 AWS 或 Google Cloud。但去中心化AI需要一种新方式:把推理任务分散到全球各地的节点中去执行,就像边缘计算一样,离用户更近、响应更快、成本更低。这种模式特别适合那些希望降低延迟、提升可访问性的应用,比如聊天机器人、图像识别、语音转文字等。

GPU 算力市场

训练也好,推理也罢,都需要一个东西:算力。而现实中,大量消费级设备(比如你我手上的笔记本电脑)、小型矿场甚至闲置的游戏主机,都在“沉睡”。于是,GPU 算力交易平台应运而生。它们就像 Uber 一样,把空闲资源调度起来,提供给需要的人。这些平台不仅为开发者提供了廉价、弹性的算力来源,也为硬件拥有者打开了新的收入渠道。分布式训练和推理网络都依赖于分布式GPU算力市场作为其底层基础设施层。

为什么说去中心化AI是趋势

去中心化AI意味着更高效地利用全球算力资源、更强的去中心化能力以及具有隐私和安全的天然优势,自然成为未来的趋势。

我们不再需要专门建矿场来跑无意义的哈希运算,而是可以将这些资源投入到真正有价值的 AI 任务中去。就像你的笔记本晚上睡觉时自动加入一个训练网络,白天继续正常使用,还能获得一些代币奖励

更强的去中心化能力方面,传统 AI 训练和推理高度依赖于少数几个科技巨头,而去中心化的 AI 网络打破了这种垄断格局,让更多人参与进来,形成真正的“众包智能”。

并且由于像零知识证明(ZKP)技术等隐私技术的被广泛应用,模型训练或推理过程中原始数据保护,对金融、医疗等敏感场景尤为重要。

就像我们此前提到过的,去中心化AI和去中心化物理基础设施网络(DePIN)也都面对同样的难题:节点间的通信问题模型参数的同步问题异构设备之间的兼容问题

DePIN带来的能源高效利用

DePIN(去中心化物理基础设施网络)一方面是在说通过资源共享——将闲置的资源聚合起来并按照有效的机制实现市场化运作,例如去中心化云计算即是聚合闲置算力资源通过区块链、智能合约等技术实现云计算资源的市场化运转。这种共享的方式避免了资源的浪费,从而为能源的高效利用、环境保护起到一定作用。

去中心化的另一方面则是通过政策或激励措施向清洁能源、可再生能源节点倾斜,从而激励更多来自可再生能源的资源。例如采用核电能源建设的数据中心,由于其使用清洁能源,去中心化云计算平台则可以在平台对其算力节点进行“绿色标记”,将更多的激励措施向其倾斜,无形中鼓励更多的算力提供方采用基于清洁能源建设的云算力、算力需求方优先购买“绿色计算资源“。

去中心化AI生态发展建设在去中心化物理基础设施网络上,这是目前我们所能看到的能源和AI生态发展相对平衡的前进趋势。一方面,我们需要构建更多的依赖清洁能源、可再生能源建设的物理设施,另一方面,我们需要DePIN组织、优化资源使得更高效运转。