作者:14
审阅:Leon Lee
来源:内容公会 - 投研
原文首发于:PermaDAO
💡摘要:
- 从比特币到以太坊,如何寻找最优的路径来破局吞吐和场景的局限?
- 从第一性原理出发,从满市场 meme 中破局的关键,如何找到区块链最本质的基础需求?
- SCP 和 AO (Actor Oriented) 颠覆式的创新原则(将存储和计算分离)具有什么魔法,能让 Web3 彻底放飞自我?
- 通过确定性程序在不可变数据上运行的结果将是唯一且可靠的吗?
- 在这样的一种叙事下,SCP 和 AO (Actor Oriented)为什么能成为无限的性能,数据的可信和拥有可组合性六边形战士? </aside>
导语
[数据来源:BTC价格]
自从 2009 年区块链诞生到如今已有 15 年有余,作为一种数字化技术的范式革命,它记录的是数字价值和网络价值,让加密货币成为了一种新的资本范式的创新。
作为嫡长子的比特币更是有望成为战略储备资产,在 2024 比特币大会上:
特朗普作出承诺表示,如果他重返白宫,将确保政府 100% 保留其拥有的比特币,并将其列为美国的战略储备资产。
而在特朗普赢得选举,比特币在那之后,一路上涨 150%,最高点已然达到 107287 美元
特朗普的胜利显然是对加密行业更为有利的,因为特朗普多次表达过强烈支持加密货币的立场。
然而,从短期来看,加密货币对选举结果的高度敏感性可能导致市场出现短期的波动高峰。这种强劲的上升势头是否具有持续性?笔者认为,只有在消除不确定性并提高区块链的扩展性之后,或许才能迎来一片新的“红海”。
美国大选落地后"Web3"繁荣背后的阴霾
[数据来源:DefiLlama]
褪去聚光灯下的光芒,数字货币市场第二大数字货币以太坊的 TVL 从 2021 年到达历史的最高峰后就持续低迷的走势。
甚至 2024 年第三季度,以太坊的去中心化金融(DeFi)收入降至 2.61 亿美元,为 2020 年第四季度以来的最低水平。
乍一看,似乎偶有陡增,但整体趋势表明 DeFi 在以太坊网络上的整体活动有所放缓。
并且,市场也涌现出完全另类的一些交易场景专属公链,比如近期非常热门的 hyperliquid,是一种订单薄模式的交易链,数据整体急速增长,从市值上 2 周冲进 top50,预计年化收入能在全部公链中仅低于以太坊、Solana、波场,从侧面来体现基于 AMM 架构和以太坊上传统 DeFi 的疲软。
[数据来源:Compound交易量]
[数据来源:Uniswap交易量]
DeFi 曾是以太坊生态的核心亮点,但由于交易费用和用户活跃度的减少,导致其收入大幅下滑。
对此,笔者尝试思考,目前以太坊或者说整个区块链所面临的困境的原因是什么,该如何破局呢?
恰巧,随着 SpaceX 的第五次试射成功,SpaceX 已然成为了商业航天上一颗冉冉升起的新星。回顾 SpaceX 的发展之路,它能走到今天正是靠着关键性的方法论——第一性原理(Tips:第一性原理概念最早在 2300 年前的古希腊哲学家亚里斯多德就提出过,他对“第一性原理”是这样表述的:“在每一系统的探索中,存在第一原理,是一个最基本的命题或假设,不能被省略或删除,也不能被违反”)。
那么,让我们也运用第一性原理的方法,层层剥开迷雾,探寻区块链行业最本质的“原子”。从基本面的角度出发,重新审视这个行业当前所面临的困境与机遇。
Web3 的“云服务”,是倒退还是未来?
当 AO (Actor Oriented) 这一概念被引入时,引起了广泛的关注。在众多 EVM 系列区块链公链趋于同质化的背景下,AO 作为一种颠覆性的架构设计,展现出了独特的吸引力。
这不仅仅是理论上的设想,而是有团队正在将之付诸实践。
正如上面所言,区块链的最大价值是记录着数字价值,从这个角度上来说,它就是一个公开透明的全球公共账本,所以基于这个实质,可以认为区块链的第一性原理是一种“存储”。
AO 是基于存储的共识范式(SCP)所实现的,只要存储不可变,无论计算端在哪里进行计算,都能保证结果具备共识,AO 全球计算机诞生了,实现大规模并行计算机的互联和协作。
回顾 2024 年,Web3 领域最引人注目的事件之一莫过于铭文生态的爆发,这可以看作是早期存储和计算分离模式的一种实践。例如,Runes 协议采用的蚀刻技术,允许在比特币交易中嵌入少量数据。这些数据虽然不影响交易的主要功能,但作为一种附加信息,构成了明确的可验证且不可消费的输出。
尽管在初期,一些技术观察者对比特币铭文的安全性提出了质疑,担心这可能成为网络攻击的潜在入口。
然而,2 年来,它完全在链上存储数据,且至今未发生任何的区块链分叉。这种稳定性再次印证了,只要存储数据不被篡改,无论计算端在哪里进行计算,都能保证数据的一致性和安全性。
或许你会发现,这不正是与传统云服务几乎一致?例如:
在计算资源管理上,在 AO 架构中,"Actor" 是独立的计算实体且每个计算单元可以运行自己的环境,这不和传统云服务器的微服务和 Docker 如出一辙吗?同样,存储上传统的云服务能依赖于 S3 或者 NFS 等,而 AO 则依托于 Arweave。
然而,简单地将 AO 归结为“冷饭热炒”并不准确。尽管 AO 借鉴了传统云服务的某些设计理念,但其核心在于将去中心化存储与分布式计算相结合。Arweave 作为一种去中心化存储网络,与传统的中心化存储有着本质区别。这种去中心化的特性赋予了 Web3 数据更高的安全性和抗审查性。
更重要的是,AO 与 Arweave 的结合并非简单的技术堆叠,而是创造了一种新的范式。这种范式将分布式计算的性能优势与去中心化存储的可信性相结合,为 Web3 应用的创新和发展提供了坚实的基础。具体而言,这种结合主要体现在以下两个方面:
- 在存储系统中实现完全去中心化设计的同时,依托分布式架构保证性能。
- 这种结合不仅解决了 Web3 领域的一些核心挑战(如存储安全与开放性),还为未来可能的无限创新和组合提供了技术基础。
下文将深入探讨 AO 的理念和架构设计,并分析其如何应对以太坊等现有公链所面临的困境,最终为 Web3 带来新的发展机遇。
从“原子”角度看待目前 Web3 的困境枷锁
自以太坊携带着智能合约的横空出世,以太坊成为了当之无愧的王者。
或许有人会问,不是还有比特币吗?但是值得注意的一点是,比特币被创造为传统货币的替代品,旨在成为一个去中心化和数字化的现金系统。而以太坊不仅仅是一种加密货币,更是具有创建和实施智能合约和去中心化应用(DApps)。
总的来说,比特币是传统货币的数字替代品,具有较高的价格,但是并不意味着有着较高的价值,以太坊更像是一个开源平台,从丰富度上来看其具有可期望的价值,更能代表当下理念上 Web3 的开放世界。
所以,自 2017 年以来,许多项目试图挑战以太坊,但能坚持到最后的少之又少,但是以太坊的性能一直为人诟病,所以随之而来的便是 Layer 2 的增长,Layer 2 看似繁荣的背后却是在困境中无奈的挣扎罢了,由于竞争的愈演愈烈,一系列问题也逐渐的暴露了出来,成为了 Web3 发展的严重的枷锁:
性能存在上限枷锁,用户体验不佳
[数据来源:DeFiLlama]
[数据来源:L2 BEAT]
近期,越来越多的人认为以太坊的扩展计划 Layer2 是失败的。
最初 L2 在以太坊的扩展计划中是以太坊亚文化的重要延续,也有需要多人力挺 L2 的发展路线,期望通过 L2 来降低 Gas 费用和提高吞吐量来实现用户数量和交易数量的增长,然而,在Gas 费用降低的情况下并没有迎来预想中用户数量的如期增长。
事实上,扩展计划的失败,负责任的是 L2 吗?其实很明显,L2 只是一只替罪羊,诚然它负有部分责任,但是其主要责任还是在以太坊身上,进一步来说,是目前 Web3 大部分链在底层设计上的问题所引发的必然结果。
我们从“原子”的角度来阐释这个问题,L2 本身是承担了计算的职能,而区块链本质的“存储”是由以太坊所承担的,并且为了获得足够的安全性,也必须是由以太坊来对数据进行存储和共识。
然而,以太坊本身在设计上为了避免了执行过程可能的死循环,从而导致整个以太坊平台停止的情况,因此任何给定的智能合约执行都会限制在有限的计算步数内。
进而一步导致 L2 的设计上是期望无限的性能的,但是实际上主链的上限却给它带上了枷锁。
短板效应决定了 L2 是存在天花板的。
详细的机制,读者可以拓展阅读来进行了解:《从传统 DeFi 到 AgentFi:探索去中心化金融的未来》。
玩法局限性大,难以形成有效的吸引力
以太坊最引以为傲的莫过于应用层繁荣的生态,在以太坊的应用生态里面,拥有着各种不同的 DApps。
但是,繁荣的背后真的是一片百花齐放的场景吗?
笔者认为,显然不是的,以太坊繁荣的应用生态的背后是金融化严重且非金融类的应用远远不够成熟的单一局面。
下面我们来看看以太坊上发展较为繁荣的应用板块:
首先,NFT、DeFi、GameFi 和 SocialFi 等概念虽具有金融创新的探索意义,但这类产品目前并不适合普罗大众。Web2 之所以能发展得如此迅猛,归根结底在于其功能足够贴近人们的日常生活。
与金融产品和服务相比,普通用户更关心的是 消息、社交、视频、电子商务 等功能。
其次,从竞争角度来看,传统金融中的 信用贷 是一种非常普遍且广泛的产品,但在 DeFi 领域,这一类产品仍然较少,主要原因在于目前缺乏有效的链上信用体系。
信用体系的构建,需要允许用户真正拥有自己的网上个人资料和社交图谱,并能够跨越不同的应用。
只有这些去中心化的信息能实现零成本存储和传递,才有可能构建 Web3 强大的个人信息图谱,和一套基于信用体系的 Web3 应用。
自此,我们再次明确了一个关键的问题,L2 未能吸引足够多的用户本身不是它们的问题,L2 的存在从来就不是核心的动力,真正突破 Web3 困境枷锁的方式是创新应用场景来吸引用户。
但目前的情况就像节假日的高速,受限于交易性能的限制,就算有再多创新想法都难以推动落地。
区块链的本质本身是“存储”,当存储和计算耦合之后就显得不够“原子”化了,在这种不够本质的设计之下必然是存在着性能的临界点的。
一些观点将区块链的本质定义为交易平台,货币系统又或者是强调透明性和匿名性。然而,这种观点忽略了区块链作为一种数据结构的根本特性以及更广泛的应用潜力。区块链不仅仅是为了金融交易,其技术架构允许它跨越多个行业进行应用,如供应链管理、医疗健康记录、甚至是版权管理等领域。因此,区块链的本质在于其作为一个存储系统的能力,这不仅仅是因为它可以安全地保管数据,还因为它通过分布式共识机制保障了数据的完整性和透明度。每个数据块一旦被加入到链上,就几乎无法被改变或删除。
原子化的基础设施:AO 让无限的性能成为可能
[数据来源:L2 TPS]
区块链的基本架构面临着一个明显的瓶颈:区块空间的限制。就像一本固定大小的账本,每笔交易和数据都需要记录在区块中。以太坊和其他区块链都受制于区块大小限制,导致交易必须相互竞争空间。这引发了一个关键问题:我们是否能突破这个限制?区块空间一定要受限吗?是否有办法让系统实现真正的无限扩展?
尽管以太坊的 L2 路线在性能扩展上是取得了成功的,但是这仅仅只能说是成功了一半,因为 L2 在吞吐量上提升了几个数量级,在面临交易高峰的时候对当个项目或许是能够撑的住的,但是作为大多数 L2 的存储和共识安全继承链来说这点的扩展提升是远远不够的。
值得注意的是,L2 的 TPS 无法无限提升,主要受限于以下几个因素:数据可用性、结算速度、验证成本、网络带宽和合约复杂性等因素。虽然 Rollup 通过压缩和验证优化了 L1 的存储和计算需求,但仍需要在 L1 上提交和验证数据,因此受到 L1 的带宽和区块时间限制。同时,生成零知识证明等计算开销、节点性能瓶颈以及复杂合约的执行需求也限制了 L2 扩展的上限。
[数据来源:suiscan TPS]
目前 Web3 真正的挑战在于吞吐和应用的不足,这将导致很难吸引新的用户,Web3 或许将面临失去影响力的风险。
简而言之,吞吐量的提升是 Web3 能否有光明未来的关键,实现一个可以无限扩展和高吞吐的网络是 Web3 的愿景。例如,Sui 采用确定性并行处理方式,预先排列交易以避免冲突,从而提高系统的可预测性和扩展性。这使得 Sui 能够处理超过每秒 10,000 笔交易(TPS)。同时,Sui 的架构允许通过增加更多验证节点来提升网络吞吐量,理论上实现无限扩展。并采用 Narwhal 和 Tusk 协议减少延迟,使系统能够高效并行处理交易,从而克服了传统 Layer 2 解决方案的扩展瓶颈。
而我们所探讨的 AO 也是基于这种思路,虽然侧重点不同,但它们都在构建一个可扩展的存储系统。
Web3需要一种基于第一性原理、以存储为核心的全新基础设施。正如埃隆·马斯克重新思考火箭发射和电动车产业时所做的,他通过第一性原理从根本上重新设计这些复杂技术,从而颠覆了行业。AO 的设计也类似,它通过计算和存储的解耦,摒弃传统区块链的框架,构建面向未来的 Web3 存储基础,推动 Web3 迈向去“中心化云服务”的愿景。
基于存储共识的设计范式 (SCP)
在介绍 AO 之前,我们得先谈谈比较新颖的 SCP 设计范式。
SCP 或许大多数人比较陌生,但是比特币的铭文相信大家一定不陌生。不严格的来说,铭文的设计思路某种程度上来说就是一种以存储为“原子”单位的设计思想,或许它有着一些偏离。
很有趣的是, Vitalik 曾经也表现出了想成为 Web3 纸带的意向,而 SCP 范式正是这一类的思想。
在以太坊的模型中,计算是由完整的节点执行,然后全局存储并提供查询,这样就导致了一个问题,以太坊虽然是一个“世界级”的计算机,但是它却是一个单线程的程序,所有的步骤都只能一步一步来,显然这是效率低下的。同时也是“MEV 优良的土壤”,毕竟交易签名会进入以太坊的内存池并公开传播,再由矿工进行排序和出块,虽然这个过程可能仅需 12 秒,但就在这短短的时间内,交易内容已暴露在无数“猎人”眼前,他们能够迅速截取并模拟,甚至反向推演出可能的交易策略。关于 MEV 详细内容可扩展阅读:《以太坊合并一年后的 MEV 格局》
与之不同的,SCP 的想法是将计算与存储分离,或许这样说你会觉得有点抽象,没关系,我们拿 Web2 的场景来举例。
在 Web2 的聊天和网购过程中,往往在某些时候是有着突发性的高峰流量,然而一台计算机在硬件资源上是难以支撑如此大的负载的,为此聪明的工程师们提出了分布式的概念,将计算交给多台计算机,最后他们将各自的计算状态进行同步和存储。这样就能弹性的扩展以应对不同时期的流量。
相似的 SCP 也可以看作这样的一种设计,将计算分摊到各个计算节点上。不同的是,SCP 的存储不是 MySQL 或者 Postsql 等数据库,而是依赖于区块链的主网。
简而言之, SCP 就是用区块链来存储状态的结果和其它数据,从而保证存储数据的可信性,并实现一个与底层区块链分层的高性能网络。
更具体地说,区块链在 SCP 中仅用于数据存储,而链下客户端/服务器负责执行所有计算并存储生成的所有状态。这样的架构设计显著提高了性能和可扩展性,但在计算和存储分离的架构下,我们能否真正保证数据的完整性和安全性?
简单来说,区块链主要用来存储数据,而实际的计算工作是由链下的服务器来完成的。这种新的系统设计有一个重要特点:它不再使用传统区块链那种复杂的节点共识机制,而是把所有共识过程都放在链下进行。
这样做有什么好处呢?因为不需要复杂的共识过程,每个服务器只需要专注于处理自己的计算任务就可以了。这让系统能够处理几乎无限多的交易,而且运行成本也更低。
虽然这种设计和目前流行的 Rollup 扩容方案有些相似,但它的目标更大:它不仅仅是用来解决区块链扩容问题,更是要为 Web2 向 Web3 转变提供一条新的路径。
说了这么多,那么 SCP 具有哪些优势呢?SCP 通过将计算和存储解耦。这一设计不仅提升了系统的灵活性和组合性,还降低了开发门槛,并有效解决了传统区块链的性能限制,同时确保数据的可信性。这样的创新使得 SCP 成为高效且可扩展的基础设施,赋能未来的去中心化生态系统。
- 可组合性:SCP 将计算放在链下,这使得不会污染到了区块链的本质,使得区块链保持了“原子”性的属性。同时,计算在链外,区块链只负担了存储的功能属性,这意味着可以执行任何的智能合约,基于 SCP 的应用迁移也变得极为简单,这一点是十分重要的。
- 开发壁垒低:链下的计算决定了,开发人员可以使用任何语言进行开发,无论是 C++,python 还是 Rust,无需专门使用 EVM 以 Solidity 语言编写,而程序员唯一的代价可能就是和链交互的 API 的成本。
- 无性能限制:链下计算,使得计算能力直接对齐了传统应用,性能的上限取决于计算服务器的机器性能,然后传统的计算资源弹性扩展由是非常成熟的技术,不考虑计算机器的成本而已,计算能力是无限的。
- 可信的数据:由于“存储”的基本功能由区块链承担,这说明所有的数据都是不可篡改和可追溯的,任何节点在对状态结果怀疑的情况下,都可以拉取数据重新计算。因此区块链为数据赋予了可信的特性。
比特币在面对"拜占庭将军问题”提出了 PoW 的解法,这是中本聪在当时环境下打破常规思路的做法,这样成就了比特币。
类似的,在面对智能合约的计算的时候,我们从第一性原理出发,或许这是一个看似违背常理的方案,但是当大胆的下放计算功能,将区块链回归本质的时候,回首蓦然发现存储共识得到满足的同时, 也满足了数据开源以及监督可信的特点, 得到完全和 Web2 一样优异的性能, 这就是 SCP。
SCP 和 AO 的结合:摆脱了枷锁的束缚
说了这么多终于要来到的 AO 了。
首先,AO 的设计采用了一种叫做 Actor Model 的模式,这个模式最初是在 Erlang 编程语言中使用的。
同时,AO 的架构和技术是基于 SCP 的范式的,将计算层与存储层分离,使存储层永久去中心化,而计算层保持传统计算层的模式。
AO 的计算资源与传统计算模式类似,但其增加了永久存储层,使计算过程可追溯且去中心化。
说到这里,你或许会发现,AO 用的存储层是那个主链呢?
显然,用来做存储层的主链必然是不可能采用比特币和以太坊的,至于原因在上面笔者已经讨论过了,相信各位读者也已经很容易想明白这一点。AO 最终计算的数据存储和最终可验证性问题是由 Arweave 来进行的。
那么在这么多去中心化存储赛道,为什么选择 Arweave 呢?
选择Arweave作为存储层主要基于以下考虑:Arweave 是一个专注于永久存储数据的去中心化网络,其定位类似于“永不丢失数据的全球硬盘”,与比特币的“全球账本”和以太坊的“全球计算机”有所不同。Arweave 类似一个永远不会丢失数据的全球硬盘。
更多关于Arweave的技术细节,请参考:《读懂 Arweave: Web3 的关键基础设施》
下面,要我们着重来讨论一下 AO 的原理和技术,看看 AO 是如何实现无限计算?
[数据来源:ao 信使的工作原理 | 手册]
AO 的核心是构建一个可无限扩展且无环境依赖的计算层,AO 的各个节点基于协议和通信机制进行协作,使得每一个节点都能提供最优的服务从而避免竞争的消耗。
首先,我们来了解一下 AO 的基本架构,AO 是由进程和消息这两类基本单位和调度单元(SU)、计算单元(CU)和信使单元(MU)所构成的:
- 进程:网络中节点的计算单位,用于相应的数据计算和消息处理,例如,每一个合约可以是一个进程。
- 消息:进程之间通过消息进行交互,每一条消息都是 ANS-104 标准的数据,整个 AO 都必须遵循这一标准。
- 调度单元(SU):负责对进程的消息进行编号,使得进程可以进行排序,并且要负责将消息上传到 Arweave。
- 计算单元(CU):AO 进程中的状态节点,负责执行计算任务,并且将计算的结果和签名返回给 SU,确保计算结果的正确性和可验证性。
- 信使单元(MU):节点中的路由存在,负责将用户的消息传递到 SU,并对签名数据进行完整性校验。
值得注意的是,AO 没有共享状态,只有全息状态。AO 的共识是博弈所产生的,由于每一次计算所产生的状态都会上传到 Arweave,从而保证数据的可验证性。当用户对某个数据产生质疑时,可以请求一个或多个节点对 Arweave 上的数据进行计算,一当结算结果不符则会对相应不诚实的节点进行罚没。
AO 架构的创新:存储和全息状态
AO 架构的创新之处在于其数据存储和验证机制,通过利用去中心化存储(Arweave)和全息状态来替代传统区块链中的冗余计算和有限区块空间。
- 全息状态: 在 AO 架构中,每次计算生成的“全息状态”会被上传到去中心化存储网络(Arweave)。这种“全息状态”不仅仅是交易数据的简单记录,它包含了每一次计算的完整状态和相关数据。这意味着,每个计算和结果都会被永久记录,并可以随时进行验证。全息状态作为一种“数据快照”,为整个网络提供了一个分布式和去中心化的数据存储方案。
- 存储验证: 在这种模式下,数据的验证不再依赖于每个节点重复计算所有交易,而是通过存储和比对上传至 Arweave 的数据来确认交易的有效性。当某个节点产生的计算结果与存储在 Arweave 上的数据不符时,用户或其他节点可以发起验证请求。此时,网络会重新计算数据,并核对 Arweave 中的存储记录。如果计算结果不一致,节点就会受到惩罚,确保网络的诚信性。
- 突破区块空间限制: 传统区块链的区块空间受到存储限制,每个区块中只能包含有限的交易。而在 AO 架构中,数据不再直接存储在区块中,而是上传到去中心化的存储网络(如 Arweave)。这意味着,区块链网络的存储和验证不再依赖于区块空间的大小,而是通过去中心化存储来分担和扩展。区块链系统的容量因此不再受到区块大小的直接限制。
区块链的区块空间限制并非不可突破。AO 架构通过依赖去中心化存储和全息状态,改变了传统区块链的数据存储和验证方式,从而为实现无限扩展提供了可能。
共识是否必须依赖冗余计算?
不一定。共识机制并不必须依赖冗余计算,它可以通过多种方式实现。依赖存储而非冗余计算的方案在某些场景下也是可行的,尤其是当数据的完整性和一致性能够通过存储验证来保障时。
在 AO 的架构中,存储成为一种替代冗余计算的方式。通过将计算结果上传到去中心化的存储网络(这里是 Arweave),系统可以确保数据的不可篡改性,并且通过状态的全息上传,任何节点都可以随时查验计算结果,确保数据的一致性和正确性。这种方式依赖的是数据存储的可靠性,而不是每个节点重复计算的结果。
下面要我们通过一个表来看看 AO 和 ETH 的区别:
AO | ETH |
---|---|
Arweave | DA |
进程 | 智能合约 |
消息 | TX |
process local state | world state |
无数台同时运行的单进程电脑 | 一台单进程的电脑 |
任意的虚拟机 | EVM |
不难发现,AO 的核心特点可以归纳为两个:
- 大规模并行计算:支持无数进程并行运行,显著提升了计算能力。
- 最小化信任依赖:无需信任任何单一节点,所有的计算结果都可以无限的重新复现和追溯。
AO 如何破局:以太坊为首的公链困境?
对于以太坊所面临的两大困境,性能枷锁和应用不足的局面,笔者认为这正是AO的强项所在,理由有以下几点:
- AO 是基于 SCP 范式设计的,计算和存储是分离的,所以在性能方面不在是以太坊单进程一次计算所能比拟的,AO 可以根据需求弹性的扩容更多的计算资源,并且 Arwearve 中对消息日志的全息态存使得AO可以通过复现计算结果来保证共识性,从安全的角度也不输以太坊和比特币。
- 基于消息传递的并行计算架构能够让 AO 的进程之间不需要去竞争“锁”,在 Web2 的开发中我们不难知道,一个高性能的服务会尽量避免锁的竞争,因为这对于一个高效的服务是代价巨大的,同样,AO进程之间通过消息来避免了锁的竞争正是这种思路,这使得其扩展性达可以达到任意规模。
- AO 的模块化架构,AO 的模块化体现在 CU、SU、MU 的分离,这使得 AO 可以采用任意的虚拟机,排序器等,这为不同链的 DApp 迁移和开发都提供了极为便捷和低廉的成本,结合 Arwearve 高效的存储能力,使得在上面开发的 DApp 可以实现更为丰富的玩法,例如,人物图谱在 AO 上至少是极为轻松就能实现的。
- 模块化架构的支撑,使 Web3 能够适应不同国家和地区的政策要求。尽管 Web3 的核心理念是去中心化和去监管,但不可避免的是,各国不同的政策对 Web3 的发展和推广产生着深远影响。 灵活的模块化组合能够根据不同地区的政策进行适配,从而在一定程度上确保了 Web3 应用的稳健性和可持续发展。
总结
计算与存储的分离是一个伟大的设想,也是基于第一性原理下的系统化设计。
作为一种类似“去中心化云服务”的叙事方向,它不仅提供了良好的落地场景,还为结合 AI 提供了更广阔的想象空间。
事实上,只有真正理解 Web3 的基础需求,才能摆脱路径依赖所带来的困境与枷锁。
SCP 与 AO 的结合提供了一种全新的思路:它继承了 SCP 的所有特性,将智能合约不再部署在链上,而是将不可篡改且可追溯的数据存储到链上,实现了人人可验证的数据可信性。
当然,目前还没有一条绝对完美的路径,AO 仍然处于萌芽发展阶段。如何避免 Web3 被过度金融化,创造出足够多的应用场景,为未来带来更丰富的可能性,仍然是 AO 成功道路上的一份考卷。至于 AO 能否交出一份令人满意的答卷,仍需等待市场和时间的检验。
SCP 与 AO 的结合,作为一种充满潜力的开发范式,虽然其理念尚未在市场上得到广泛认可,但未来 AO 有望在 Web3 领域发挥重要作用,甚至推动 Web3 的进一步发展。