自 2020 年以来,Ethereum 的扩张路线图一直围绕「Rollup」展开: 使用证明(无论是零知识证明还是 optimistic 欺诈证明)来继承 Ethereum 安全性的独立执行环境。
经过多年的发展,Rollup 终于完成了部署,并正在获得采用。Arbitrum 的王牌 optimistic Rollup 已经上线近一年,期间有价值超过 27 亿美元的资产存入跨链桥,而 Optimism 则紧随其后。Loopring 和 dydX 等针对于特定应用程序的零知识 Rollup 也得到了广泛使用,许多竞争性的通用零知识 Rollup 将在未来几个月内推出。
尽管 Rollup 如今正在快速迅速,但一些人还是担心其费用居高难下。
事实上,Arbitrum 和 Optimism 的交易费用仍然显著高于 Solana 和 Polygon 等「低费用」链。
那么,是什么阻碍了这些 Rollup 的发展?
为了理解交易费用,我们首先需要分清区块链交易所产生的各种成本:
?执行
这是一个网络中所有节点执行交易并验证结果是否有效所需的成本(例如:你实际拥有你所转移 Token 的所有权)。
?存储/状态
这是用新值更新区块链「数据库」的成本(例如:在 Token 转移后,发送方的余额减少,接收方的余额增加)。
“澳本聪”Craig Wright起诉比特币开发者案即将开庭:金色财经报道,有“澳本聪”之称的Craig Wright在英国起诉了16名比特币开发者,该案件即将在伦敦开庭审理。
Craig Wright起诉包括Roger Ver、Blockstream联合创始人Matt Corallo和Greg Maxwell等16名开发者,要求其赔偿因丢失或被黑客盗取的价值40亿美元的比特币。该案曾于2022年3月被驳回。[2023/2/4 11:47:01]
?数据可用性
为了让区块链保持去信任化并可被所有人验证,区块链必须确保所有关于交易的相关数据与所有网络参与者公开共享。从本质上讲,这就是要保证世界上每个人都能看到你的交易。如果没有这种保证,各种攻击就都有可能发生(被称为扣块攻击)。
正如我们所见,数据可用性是当今区块链的关键瓶颈之一。
Rollup 的主要进步在于,它将区块链的执行和存储转移到了「链外」,即一组有限的节点上进行。与其让网络中的每个 Ethereum 节点执行所有交易或存储每条更新,我们可以直接把这个任务委托给 Rollup 运营商。
不过,这是否意味着我们需要信任这群操作员?难道这不是中心化吗?
Rollup 会使用各种证明类型来继承 Ethereum 的安全性。Optimistic Rollup 允许单一诚实的实体提交一个「欺诈证明」,并为一个行为不端的序列器赢得奖励,而 ZK Rollup 使用零知识证明来证明 Layer-2 链已经正确更新。
将执行从主链转移可以大大降低执行和状态存储的成本,不过 Rollup 仍需要将他们的数据发布到 Layer-1 链上以确保数据的可用性。从本质上讲,Rollup 支付低廉的 Layer-2 执行和存储成本,但仍需要支付 Layer-1 的费用来发布他们的数据。
Solana生态借贷协议Solend已上线开发者网络:官方消息,Solana生态借贷协议Solend宣布,已上线开发者网络,添加支持浏览器钱包Phantom,以及预言机Pyth和Switchboard。[2021/8/3 1:31:56]
这可以在 ArbiScan 区块浏览器中任何交易的「Advanced TxInfo」标签上看到。交易费用由发布到 L1 的调用数据成本、L2 上使用的计算和 L2 存储构成,而在几乎所有的交易中,L1 的调用数据都是费用的主要来源。也就是说,Rollup 上最需要解决的问题便是将数据发布到 Layer-1 的费用问题。
虽然数据可用性对于 Rollup 来说仍是一大瓶颈,但随着时间推移这种情况也会得到缓解。
Ethereum 的升级,如 Proto-Danksharding 和最终的完全 Danksharding 将大大降低向 Ethereum 发布数据的成本。此外,Celestia 这样的项目旨在提供独立的链,而这些链是专门为提供廉价的数据可用性而建立的。
从长远来看,Danksharding 和 Celestia 这样的系统将降低数据可用性成本并增加其丰富性,同时将问题抛回到执行层面。然而,这些解决方案还需要时间才能完全成熟:Celestia 还有几个月的时间才会发布其主网,而在 Ethereum 能够增加像 Proto-Danksharding 这样的数据可用性升级之前,可能还需要一年多的时间。
数据压缩是一个比计算机本身还要古老的领域。莫尔斯电码发明于 1838 年,是已知最早应用数据压缩的实例。然后,计算机的使用加速了人们对于数据压缩的研究,于是上世纪 50 年代哈夫曼编码这样的算法就发明了出来。
动态 | 比特币开发者Tyler Smith发布被称为“Snowglobe”的协议规范草案:比特币开发者Tyler Smith发布了他称为“ Snowglobe”的协议规范草案。他表示,Snowglobe是一个使用Nakamoto共识的节点传播协议,它使用了一个基于Avalanche的共识算法。Snowglobe”协议规范指出:“本文为Nakamoto共识网络的节点指定了一种传播协议,参与者在其中要积极工作以调和其本地状态。它使节点能够对彼此的状态进行采样,以确定冲突集中的哪个项当前由大多数节点选择,并朝着选择相同项集的绝大多数节点努力。”[2019/12/22]
鉴于 Rollup 的执行成本低廉,但数据可用性成本昂贵,这些团队一直在将数据压缩算法整合到他们的协议当中。Optimism 已经将 Zlib 压缩算法整合到他们的 Rollup 中,而 Arbitrum 即将推出的 Nitro 升级版则使用了 brotli 压缩算法。
数据压缩算法肯定是有用的工具,有助于降低这些调用数据的成本。然而,压缩区块链交易是一项艰巨的任务:数据压缩的作用是寻找相同的模式并缩短它们。然而,交易中充满了地址、哈希值和签名,对于这些压缩算法来说,它们本质上是「随机数据」,不具有相似性。
只有当开发者开始关心如何减少他们应用程序中的调用数据,该类数据的成本才能真正降低。2020-2021 年的天价 Gas 价格迫使开发者优化他们的代码,以尽量减少执行和状态存储。
动态 | 门罗开发者首谈Grin:并不害怕被取代:据ambcrypto消息,在近期的一场活动中,莱特币创始人李启威(Charlie Lee)、门罗开发者Riccardo Spagni以及Whale Panda讨论了有关Grin和Beam的话题。当被问到是否因这个新的隐私币感到不安时,Riccardo Spagni回答,他对一切能够改善隐私的事物都表示支持。他表示将来会经常diss Grin和Beam,因为在他看来,有批评才有进步。他接着说,他不会受到货币威胁的原因是,这并不能阻止Monero的存在。另外,他还透露门罗正在部署MimbleWimble协议。随后,李启威也对Grin和Beam做出了评价,认为它们能够“在不做出任何妥协的情况下实现隐私和延展性”。当被问到这一协议是否可能作为侧链部署到比特币网络或直接进入比特币网络时,李启威回答,重点在于侧链的安全性。[2019/1/21]
当我们过渡到 L2 世界时,调用数据将从最便宜的资源变成最昂贵的资源,因此开发者必须再次学习这些新的优化方案。
现在让我们在 Arbitrum 上做一个实验:我们可以将一个简单的 Token 传输所需的调用数据压缩到什么程度?这些优化能在多大程度上降低交易费用?
为了进行我们的实验,我们将建立一个简单的智能合约,将一个 Token 从交易发送方转移到任何给定的地址。
这个智能合约确实需要用户在发送我们的实际测试交易之前,先发送一个 approve() 交易。由于这个限制,用户可能不会想用这个系统进行 Token 转移。然而,本实验中用到的节约成本方法也可以应用于其他合约(例如,优化的 Uniswap 路由器)。
L4 和 MakerDAO 宣布成立稳定基金 为基于 Maker生态的开发者们提供初始资本:L4 和 MakerDAO 宣布成立稳定基金(The Stable Fund)。稳定基金提供4500万美金,为基于 Maker生态的开发者们提供初始资本、商业发展帮助和之后的融资以及战略支持。 稳定基金为每个项目提供最高2万5千美金的赞助和最高20万美金的投资。如果开发者需要更多资本扩展项目,会针对引介顶级的投资者。 稳定基金将由L4联合创始人Panashe Mahachi 引领。Panashe Mahachi 创立了 Scanate,最早期的加密货币基金之一,他同时也是 Maker 社区的长期成员[2018/2/26]
在实验开始时,我们将发送一个「控制」交易以获得基准成本,它会调用一个简单的 Solidity 函数,用于传递 Token 地址、接收者地址和要转移的 Token 数量。
我们的测试交易使用了 576,051 个 ArbiGas,总费用为 0.43 美元。
用于对照组的调用数据有很多我们可以剥离出来的不必要数据。首先,我们需要删除所有的零,这些零只是用于数据填充。虽然它们非零字节更便宜,但仍会产生成本,所以我们需要将其删除。
开头还有一个 4 字节的函数签名,它是我们试图调用哪个 Solidity 函数的标识符。我们可以删除这个数据,让我们的代码推断出我们所要采取的行动。
经过这两步优化之后我们已经将字节码从 100 减少到 43 了。这样一来,我们的测试交易使用了 494,485 ArbiGas(减少了 14%),花费 0.37 美元。
现在我们的大部分数据是由调用数据中的两个地址组成的:一个是我们要转移的 Token 地址,另一个是转移的接收地址。
然而,我们可以假设大多数用户都在转移同样的几种 Token(WETH,Dai,USDC)。所以,从调用数据中删除整个 Token 地址的其中一个方法是为该 Token 部署一个特殊的「助手」合约。如果我们可以把交易发送给这个助手,就完全避免了发送 Token 地址的必要。
这样我们就把数据字节码减少到了 23 字节,测试交易使用了 457,546 ArbiGas(比对照组减少了 21%),成本为 0.34 美元。
上一阶段我们用「助手合约」从调用数据中删除了一个地址,但是我们的调用数据中仍包含有另一个地址。
我们是否可以可以找到另一种更可靠的「压缩」地址方法呢?
值得庆幸的是,Arbitrum 有一个名叫「地址表注册」的内置合约,我们可以用它来缩短我们的调用数据。
这个合约本质上是一个「电话簿」,可以将 20 字节的 Ethereum 地址转换为简单的整数。想象一下,你的朋友有一本传统的电话簿:与其把你的整个电话号码读给他们听,不如直接说「我是电话簿第 200 页上的第 4 个电话号码」,然后让他们查到你的号码。
因此,我们可以制定一个合约并用「地址索引」来代替完整的地址,并在内部查询到它。
这样我们既省去了 Token 地址又省去了接收地址,从而将将调用数据减少到 9 字节。如此一来,我们的测试交易使用了 428,347 ArbiGas(比对照组减少了 26%),成本为 0.32 美元。
最后,让我们把所有的方法整合到一起:
?移除数据填充与函数选择器
?使用辅助合约来删除常见的地址
?使用 Arbitrum 地址表来缩短其他地址
全部加在一起,我们的调用数据大小现在只有 6 个字节了。最后的测试交易使用了 426,529 ArbiGas(也比对照组减少了 26%,比之前的测试组略低),花费 0.32 美元。
我们刚刚谈到的所有压缩方法都属于「无损压缩」,即压缩后的输出包含与原始输入相同的所有数据。
但就像照片和视频文件通常会使用「有损压缩」算法来删除不必要的信息一样,我们也可以在大多数情况下删除不必要的数据。
我们可以通过缩短数字来去除不必要的精度。例如,ERC-20 Token 往往有着 18 位小数的精度,但大多数用户通常只关心小数点后 4 位。为此,我们可以建立一个合约,默认接受小数点后 8 位的数字并乘以 10 的 10 次方,并为需要更多精度的用户提供相应的辅助功能。
同样,日期通常表示为「1970 年 1 月 1 日以来的秒数」(也被称为 Unix 时间)。合约可以通过设定的不同的时间单位,如分钟、小时或天来减少这个整数的大小,并可以设置自己的「纪元」,例如,2015 年 1 月 1 日。
总之,调用数据已经从 Ethereum L1 上最便宜的资源,变成了 Ethereum Rollup 上最昂贵的资源。Proto-Danksharding 和 Celestia 这样的数据可用性技术最终会解决这一问题,但二者都还没有上线,而且数据可用性变得廉价且普遍可能还需要几年时间。
因此,区块链开发者需要非常注意他们交易所需的调用数据数量,因为这对终端用户的交易费用会产生重大影响。
这篇文章概述了一些可用于减少调用数据的技术方法,我相信随着越来越多的「优化大军」将注意力转向 Layer 2,此类方法将变得愈发丰富。
原文标题:《Crunching the Calldata》
原文作者:David Mihal
原文编译:Kxp,BlockBeats
来源:区块律动
区块律动BlockBeats
媒体专栏
阅读更多
金色财经 子木
金色早8点
去中心化金融社区
虎嗅科技
CertiK中文社区
深潮TechFlow
念青
Odaily星球日报
腾讯研究院
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。