作者:?IgorMandrigin
翻译:?阿剑
来源:以太坊爱好者
什么是“无状态以太坊”?
如果您已经了解什么是“无状态以太坊”以及“区块见证数据”,可以跳过这一段。
为执行交易及验证区块,以太坊网络的节点需要了解整条区块链的当前状态——也就是所有账户和合约的余额和存储数据。这些数据一般来说是存储在DB里面的,在需要用于验证时才会加载到一棵默克尔树中。
无状态以太坊客户端的工作思路则稍有区别。顾名思义,无状态客户端就是不使用硬盘DB来执行区块。相反,无状态客户端依赖于“区块见证数据”——就是一段特殊的数据,它会跟相应的区块一起传播;拥有了这段数据,客户端就可以重建出一个默克尔子树,该分支足可用于执行该区块中的所有交易。
你可以在这篇文章中读到关于无状态客户端的更深入的描述:https://blog.ethereum.org/2019/12/30/eth1x-files-state-of-stateless-ethereum/
当然咯,需要传播区块见证数据就意味着无状态客户端的网络要求要比普通节点更高。
-见证数据大小折线图-
现在人们已经提出了很多降低见证数据规模的思路:使用有效性/计算完整性证明、加入更多的压缩手段,等等。其中一种办法是将以太坊的默克尔树从十六进制转为二进制。
这就是本文想要探讨的问题。
安全团队:FTX交易所遭到gas窃取攻击事件技术分析:10月13日消息,据Beosin EagleEye Web3安全预警与监控平台的舆情消息,FTX交易所遭到gas窃取攻击,黑客利用FTX支付的gas费用铸造了大量XEN TOKEN。Beosin安全团队第一时间对事件进行了分析,结果如下:
1.以其中一笔攻击交易为例
(0x8eb73bd5c08318a4cfd233940c3a58744830cda999e59ecbc56f094618a91d69),攻击者先在链上部署攻击合约(0xCba9b1Fd69626932c704DAc4CB58c29244A47FD3)
2.FTX热钱包地址会向攻击合约地址转入小额的资金,利用攻击合约(0xCba9...7FD3)进行批量创建子合约。由于整个攻击中创建了大量合约,并且每次执行完子合约之后,子合约都会自毁。
3.接下来子合约fallback()函数去向Xen合约发起铸币请求,如下函数,claimRank()函数传入一个时间期限(最小1天)进行铸币,铸币条件是只用支付调用gas费,并无其他成本,并且claimMintReward()函数为提取函数,该函数只判断是否达到时间期限(本次黑客设置的时间期限为最小值1天),便可无条件提取。但在此次调用过程中,交易发起者为FTX热钱包地址,所以整个调用过程的gas都是由FTX热钱包地址所支付,而Xen铸币地址为攻击者地址。
4. 1-3中的步骤,重复多次,并且每次重复过程中都会将已到期的代币提取出来,并且同时发起新的铸币请求。
截止发文时,通过Beosin Trace追踪发现,FTX交易所损失81ETH,黑客通过DODO,Uniswap将XEN Token换成ETH转移。[2022/10/13 14:26:15]
为什么要使用二进制树
麦子钱包陆遥远:在创新币种面前,技术分析会失效:7月7日20:00,麦子钱包陆遥远做客MXC抹茶社区,就《加密阁重启现货时代》发表观点。陆遥远表示:“主流币之外的其它创新币种,通过买、卖盘,其技术分析会失效。我的策略是押注热点龙头、次龙头币种,瞄准低市值有落地应用的代币,调研项目的完成度和团队的状态。对于创新币种,一方面需要对项目消息极速捕捉和对团队态度的揣摩,之后才是根据交易环境进行交易,参与二级市场。这是和主流币操作不一样的地方。“[2020/7/7]
默克尔树的一大优良特性是,验证树根值正确与否并不要求你具有整棵树所有的数据。只需把所有省略的非空路径替代为相应的哈希值就可以可。
那么使用十六进制默克尔树有什么不好呢?
设想整棵树都已填满数据。要验证一个区块,我们只需要一小部分默克尔树节点的数据。那么,我们只需把其他路径的数据替代为哈希值就可以了。
但是,每多加入一条哈希值,区块见证数据就会大一些。
如果我们转变为二进制默克尔树,这个问题就可以得到缓解——因为默克尔树上的每个节点都只有两个子节点,所以至多只有一个字节点需要被替换为哈希值。
这样做也许能大幅降低见证数据的规模。
我们再举例说明一下。
假设执行某个区块只会影响一个账户:3B路径下的Acc1。整棵树是全满的。
动态 | 卢旺达在下年预算中为区块链技术分配研发资金:据Coinidol消息,卢旺达共和国已将下一财政年度的部分预算分配给信息产业部,以开发和支持区块链项目。该部部长Paula Ingabire透露,政府愿意支持区块链和其他大量第四次工业革命技术。她坚信在不久的将来,区块链将改变许多重要领域,包括医疗保健、旅游业、土地登记、运输和物流、金融以及其他领域。[2019/12/15]
-二进制状态树与十六进制状态树的比较-
如果说二进制状态树看起来有点吓人,那只是因为二进制树我画全了,但没有把十六进制树的所有代之以哈希值的节点都画出来。
来数个数:
为创建出一棵二进制状态树,见证数据需要包含8个哈希值,7个分支节点和1个账户节点。也就是见证数据中有16个元素。
为创建出一棵十六进制状态树,我们只需1个分支节点,1个账户节点,但需要30个哈希值。也就是有32个元素。
所以,假设哈希值和分支节点在区块见证数据中的所占的空间是一样大的,在我们的例子中,使用二进制树所需的见证数据大小只有十六进制下的一半。看起来不错。
那么,理论上就是这样。
我们来看看实际情况是如何。我们直接拿以太坊主网的数据来看看吧。
开始实验
先说最紧要的:我们怎么知道自己构建出来的区块见证数据是有用的呢?
测试方法如下:我们使用区块见证数据来生成一棵默克尔子树,在这棵树上运行相应区块中的所有交易,然后校验结果是否与我们所知的一致。只要交易都能成功执行,等等),我们就可以断定这个见证是足够充分的。
动态 | 加密货币技术分析师:比特币将在10至12个月内大幅增长:据CCN消息,在线名为“Galaxy”的加密货币技术分析师表示,基于比特币的历史价格变动,该资产可能在10至12个月内出现大幅增长。他认为目前正在接近2015年熊市的420天大关,如果历史重演,市场将走向几个月的积累并将在2019年中后期开启新牛市周期。从历史数据看,比特币平均需要62周才能从85%的修正中恢复过来,自去年1月熊市以来的15个月将是今年3月。[2019/1/16]
-测试方法:1.执行区块;2.从状态树中抽取出见证数据;3.使用见证数据构造出一棵子树;4.禁用DB访问、使用子树来执行区块(具体可见
github)-
其次,我们需要一些基准数据。因此,我们也使用500万到850万高度的区块、在十六进制默克尔树模式下生成了见证数据,并将见证数据大小的统计数据存在一个超级大的csv文件中。
我们尝试的第一步是执行完一个区块后就组装出一棵十六进制树,然后将它转为二进制树,再从这棵二进制树中提取出见证数据。
这种方法有几个好处:易于实现,而且验证十六进制-二进制的转换也很简单。
不过,我们遇到了两个问题,而且其中一个还不小。
第一个,正如我们上面证明的那样,比起二进制树,十六进制树包含更多的账户节点,如果我们先生成十六进制树再转换,得到的结果就跟在二进制树模式下直接生成所得到的见证数据不一样。
为什么呢?
Evercore ISI技术分析负责人:加密货币可能成为新型避险资产:在整个4月份,全球最大的加密货币比特币累计上涨36%,创出去年12月份以来的最大月度涨幅,Evercore ISI驻纽约的技术分析负责人Rich Ross表示:“修复过程已经慢慢开始了,但还是相当脆弱。”需要提醒的是:一是需要防止比特币出现泡沫。二是虚拟货币中,最稳健的还是比特币,因为比特币已经获得了广泛认可,其他加密货币具有很大不确定性。一些专业人士认为,当前避险资产多元化也在削弱黄金在避险资产当中的地位,加密货币或成新避险选择,因此,居民财富配置过程中,尤其是海外资产配置,须关注虚拟货币以及其他避险资产的诉求。[2018/5/2]
因为十六进制树数据总是以1/2字节的速度增长,而二进制树总是以1比特的速度增长,因此键的长度可以是奇数位。
实际上,见证数据中还包含一些额外的扩展节点,它们还要稍微大一点。不过即便对内容较多的区块,体现在见证数据大小上的差别也非常之小。
关键的是性能。随着树的规模增长,转换的速度会越来越慢。
用更具体的数字来说明一下:在我们的GoogleComputeEngine虚拟机上,处理速度约为每秒0.16个区块,也就是每分钟处理小于10个区块,处理100万个区块要超过3个月!
所以,我们决定采取更复杂的办法,开发出一个原生使用二进制默克尔树的实验性分支。也就是说,我们要把turbo-geth代码库例地所有十六进制状态树全部替换为二进制树,然后区块就是基于二进制树来执行的了。
这种办法的不利之处在于,部分哈希值的校验只能被忽略掉。
但主要的验证机制还是一样的:我们需要能够使用二进制树来执行区块、从见证数据中创建出默克尔子树。
再来谈谈key。
为简化起见,我们对key的编码方式是非常低效的:1bytepernibble;一个key的每一比特就要占用1字节。这样做大大简化了代码层面的改变,但区块见证数据中的”key“部分会是我们使用bitset时候的8倍大。
因此,在进一步分析中,我会假设key的编码方式是最优的。
Hexvs.Bin:结果
我的分析分为两段,总共分析了以太坊主网上的200万个区块。
区块高度500万到650万
我在这个github库里面提供了使用python脚本来重复这一实验的命令行:
https://github.com/mandrigin/ethereum-mainnet-bin-tries-data
首先我们来分析一下数据集。
pythonpercentile.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust
-
一个箱型图,箱体显示上四分位到下四分位之间的数据,左右延伸出去的线条显示上1%到下1%之间的数据
-百分比分析-
现在我们可以生成一些很酷的图表了!
pythonxy-scatter-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust
-XY散点图(横轴为Hex下见证数据大小,纵轴为Bin下见证数据大小)-
可以看出,二进制见证数据的大小总是优于十六进制树下的见证数据。
我们再加入另一个参数,用二进制见证数据大小除以十六进制见证数据大小,看看我们得到了怎样的提升。
pythonsize-improvements-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust
-二进制见证数据的大小/十六进制见证数据的大小-
为更好地理解这张图标,我们也输出了平均值和百分位值。
平均值=0.51
P95=0.58
P99=0.61
在实际场景中这意味着什么?
对于99%的区块,见证数据的大小可以降低至少39%。
对于95%的区块,见证数据的大小可以降低至少42%。
平均来说,见证数据可节省49%。
我们也要考虑见证数据大小的绝对值。为使数据变得可读,我们每1024个区块取滑动平均值。
pythonabsolute-values-plot.pyhex-witness-raw.csvbin-stats-5m-6.5m.csv50000006500000adjust
-依时间顺序绘制的见证数据大小折线图,纵轴单位为MB-
再来看看最新区块的情况。
区块高度800万到850万
pythonpercentile.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust
-箱型图,箱表示上下四分位以内的数据,线表示上下1%以内的数据-
-800万号到850万号区块的百分位分析-
还有XY散点图。
pythonxy-scatter-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust
还有规模上的节约。
pythonsize-improvements-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust
-XY散点图(横轴为Hex下见证数据大小,纵轴为Bin下见证数据大小)-
平均值=0.53
P95=0.61
P99=0.66
最后,再来看看见证数据的绝对大小。
pythonabsolute-values-plot.pyhex-witness-raw.csvbin-stats-8m-9m.csv80000008500000adjust
-依时间顺序绘制的见证数据大小折线图,纵轴单位为MB-
结论
在使用以太坊主网数据做过测试以后,我们可以看到,切换为二进制树模式可以大幅提升生成见证数据的效率。
另一个结论是,这种提升并没有理论上那么显著。原因可能在于主网区块的实际数据。
也许,通过分析一些例外情况,我们可以知道更多优化见证数据规模的办法。
试着使用别的原始数据来跑跑GitHub中的脚本吧:https://github.com/mandrigin/ethereum-mainnet-bin-tries-data
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。