EF 研究团队第八次 AMA 之主网专题
0x85ec
July 28th, 2022

来源 | reddit.com/r/ethereum

作者 | 以太坊基金会研究团队

编者注:2022 年 7 月 7 日,以太坊基金会研究团队在 Reddit 上举行了第八次 AMA。ECN 对这次 AMA 的大部分问题进行了整理和编译。由于篇幅较长,文章分主题整理,本文为最后一期专题,推荐阅读前两期:

本文整理的内容主要关于主网上的技术升级与更新,涉及话题有 Staking、Danksharding、合并与合并后、MEV。

Staking

Liberosist 提问:

一个写进协议里的质押衍生品设计会是什么样子? 让以太坊实现一个是否为时已晚?

Vitalik 回复:

问题是质押本质上是不可替代 (not fungible) 的,因为不同的人质押的质押品有不同程度的被罚没风险,和在线情况等风险。所以让质押变得可替代的唯一方法是创建某种治理机制,尝试确定谁是足够值得信赖的。如果质押是以协议级别完成,那么我们基本上会有协议级别的治理,可以主观判断谁是值得信赖的人,但这似乎是一条非常危险的道路。

在协议层可以做的事情是让人们更容易双重使用其抵押品,然后你可以让 dapp 承担运行治理机制的责任,它们决定谁的质押可以相信。

此外,/u/bobthesponge1 在 SGX 上有一些好主意,你可以在其中拥有一个 Staking 衍生品,它会接受任何将其 Staking 密钥放入 SGX 的人,以将防止双重签名。


eth10kIsFUD 提问:

我认为流动性质押衍生品 (liquidity staking derivative) 也许会使质押收益降低到一种对个人质押者不利的程度(年利率少于 1 %)。如果流动性质押衍生品代表着 90% 以上质押的 ETH,那我们保持去中心化的最佳选择是什么?

Vitalik 回复:

除非在线率大幅下降,否则 1% 的年利率在数学上是不可能的。如果所有 ETH 持有者都质押全部的 ETH,年利率约为 1.5%。

如果质押的 ETH 确实占所有 ETH 很高的份额,并且低利率让个人质押者不愿意参与(顺便说一句,不是给定的;如果质押率降到那么低,那我个人会回归到只持有 ETH),那么最好的希望就是给出多种不同的质押解决方案,因此没有单一解决方案会获得过高的市场份额。

以太坊基金会 Justin Drake 回复:

我认为流动性质押衍生品也许会使质押收益降低到一种对个人质押者不利的程度(年利率少于 1 %)。

与 PoW 挖矿形成鲜明对比的是,PoS 质押基本上没有规模经济。也就是说,无论质押数量有多少,质押者每单位质押的奖励和惩罚基本相同。因为质押池收取费用(例如 Lido 收取 10%,Coinbase 收取 25%),所以质押奖励对于个人质押者来说更高。

如果流动性质押衍生品代表着 90% 以上质押的 ETH,那我们保持去中心化的最佳选择是什么?

流动性质押衍生品和去中心化是相互包容的,请看 Rocket PoolSwellethsresearch 论坛这篇文章


Butta_TRiBot 提问:

你们担心 Lido 占有大约 30% 的网络份额吗?如果担心,我们可以做些什么?

以太坊基金会 Justin Drake 回复:

我认为,lido 的主导地位损害了以太坊 PoS 在感知上的安全和去中心化(甚至比实际的安全和去中心化更严重)。一个好消息是,市场似乎开始意识到 Lido 的尾部风险:

  • 治理风险: 6 亿美元的治理代币正在保护约 50 亿美元的质押 ETH。可能会发生攻击者接管 LDO 治理代币并勒索 stETH 持有者的情况。鉴于 Lido 的分布集中在少数人手中,这可能会带来内部作案、贿赂攻击和扳手攻击,这种情况尤其令人担忧。
  • 合约风险:今天的 Lido 智能合约可能存在漏洞,漏洞可能是通过治理升级而意外(或故意!)引入的。
  • 罚没风险:除了意外的罚没风险之外,有权访问质押密钥的恶意运营商管理员可以通过威胁罚没相应的质押 ETH 来勒索 stETH 持有者。

另一个好消息是,还有其他可选的流动性质押衍生品设计,包括 RocketPoolSwell,以及这种设计


thomas_m_k 提问:

个人质押者的一个缺点是(我认为)提议区块的比率是泊松分布(Poissan-distributed)的,这意味着即使你很长时间没有提议区块,在下一个时期提议区块的概率与刚刚提议区块的人相同。这会导致区块提议数量的巨大差异。而质押池能够通过拥有大量验证者来补偿这种差异。

如果你有一段时间没有提议一个区块,有没有办法慢慢增加成为提议者的概率?减少方差?在我看来这是可行的,但我想我错过了一些东西。

Vitalik 回复:

是的,有多种办法做这样的事情;也许想法可以与单一领导人秘密选举(SSLE)在同一时间实施。 除了一般的协议复杂性问题之外,主要挑战是确保这样的机制不会意外地引入激励机制,促使验证者退出并重新进入以清除他们的“最近创建了一个区块”状态。

need-a-bencil 回复:

我认为下一个提案的区块分布将是几何的,但可以通过指数分布很好地建模,假设验证者的数量稳定。

我认为更紧迫的问题是每个区块的交易费分配,它大致遵循着幂律。这个问题部分解释了为什么通过 Rocket Pool 进行 MEV 均匀分配对于个人质押者有利。

以太坊基金会 Justin Drake 回复:

如果你有一段时间没有提议一个区块,有没有办法慢慢增加成为提议者的概率?减少方差?

MEV 方差通过 MEV 均匀分配而减少。关键思想是要求证明者仅证明出价最高的区块构建者的区块,并且在该区块中提取的价值是平均分配给证明者。


curious_logixian 提问:

只是很好奇,EF 研究路线图有计划将(PoS)质押门槛从 32 ETH 降低吗?如果降低,我们可以期待它什么时候会降低?

Vitalik 回复:

现在门槛是 32 个 ETH 的原因在于,如果门槛越低,验证者的数量就会越高,以太坊链将不得不处理更多的签名,因为节点变得更难运行,从而使链更加中心化。 请参阅 2017 年的这篇文章,其中解释了这种权衡:https://medium.com/@VitalikButerin/parametrizing-casper-the-decentralization-finality-time-overhead-tradeoff-3f2011672735

最近有一些有趣的想法将工程工作和协议改进结合起来,这既可以带来更快的敲定时间,而且在最好的情况下还会令验证者的规模变小。更多有关更多信息,请参考:

尤其参考第二个文档中的策略 3(可变的最小验证者余额)。

也就是说,需要时间才能吸收这些想法;几乎可以肯定,我们距离真正实现那些能够给我们带来好处且经过改革的共识设计还需要几年的时间。


主网

Lickmytongue77 提问:

我们离“稳定”的 L1 还有多远,即预计不再有重大升级?

我们感觉以太坊变得越来越复杂,需要一些时间来减少/消除不好的复杂性。

Justin Drake 回复:

我们离“稳定”的 L1 还有多远,即预计不再有重大升级?

L1 最终的重大升级之一将是后量子安全。我们可能不得不把共识层的内脏 (BLS 签名、Verkle trees、SSLE) 都拿出来,这也将是一个简化和清理的机会。我的最佳猜想是,这样的后量子升级将在十年左右发生。

Lickmytongue77 提问:

有什么资源我可以看一下的吗?还是说这个问题目前还是太遥远了?你的说法是把共识层的内脏拿出来,听起来会是个痛苦和艰巨的过程。

Justin Drake 回复:

我做过一个关于后量子以太坊的演讲,链接:https://www.youtube.com/watch?v=DDxpGMGSGDE


VDF

ckd001 提问:

自从 Devcon 布拉格之后,我一直对 VDF (Verifiable Delay Functions,可验证延迟函数) 取代/增强 Randao 感到兴奋。这方面有什么最新进展吗?

Justin Drake 回复:

VDF 有了很大的进展。新的设计是 Sloth+SNARKs (特别是带有 GPU 加速 multi-scalar multiplication 的 Nova)。我们将在几周内有一个基于 CPU 的 VDF 点到点演示,第一批 VDF ASIC 测试样品 (12纳米,厂商是 GlobalFoundries ) 将在 2022 年生产出来。

Danksharding

Sushi_95 提问:

我从 Dankrad 那里听说,在将用于数据可用性采用的 KZG 承诺方案中,你需要生成椭圆曲线上的点。我知道椭圆曲线签名可能不具有量子抵抗性。这是否意味着,出于量子安全的考虑,数据可用性采用可能需要重新设计?

Dankrad Feist 回复:

是的,从长远来看,一个新的后量子解决方案必须被开发出来。幸运的是,我认为到时 STARK 友好的哈希和 STARK 将足以填补这一块 (我认为在 5 年内我们可以很容易地建立一个基于此的数据可用性的解决方案)。

我们的很多密码学都是如此——我们也没有一个用于可聚合签名的后量子解决方案 (尽管在过去的一年里在这些方面做了一些非常好的研究)。目前,我们不得不使用前量子的解决方案,否则性能会受到很大的影响。

Justin Drake 回复:

这是否意味着,出于量子安全的考虑,数据可用性采用可能需要重新设计?

是的,它需要被完全取代,可能会使用一个基于 STARK 的方案。


saddit42 提问:

你认为什么会对以太坊的生态系统造成更大的破坏?

a) 匆匆地推出 proto-danksharding 的更新并在未来 12 个月内实现了,但在共识层客户端里产生了一个需要修复的重大错误。

b) 花费大量时间将 proto-danksharding,并在没有任何重大错误的情况下交付,但需要在两年半的时间内完成。

Dankrad Feist 回复:

我认为这是一个非常好的问题,它可以归结为我们目前在以太坊看到的一个最重要的纠结点——为了实现路线图,我们愿意承担什么风险?

与 Solana 不同,以太坊从来没有经历过严重宕机,这当然是一个了不起的成就。我认为我们要特别感谢 Go-ethereum 团队,成就了这个壮举。然而,我认为值得认真思考的是,当不作为的成本也非常高时,100%地谨慎行事是否是正确的做法。

延迟的代价是每天排放成千上万吨的二氧化碳。

延迟 EIP-4844 和分片的代价是用户必须支付极其高昂的费用来使用一条安全且去中心化的区块链。

这两点对我来说都非常重要。它们也可能意味着以太坊的死亡,要么因为区块链无法被采用 (因为大规模使用它太贵了),要么更加可能是因为另一条链出现了,并解决了所有这些问题,然后以太坊就变得不重要了。

总的来说,我认为有理由认为,在进行升级时,我们应该对失败更宽容一点。特别是,我认为应该对短暂的中断故障有更多的包容——如果一个重要升级可能带来几个小时的宕机,这对我来说是可以接受的,因为与为了做更多的测试而延迟几个月升级相比,这种中断的成本低得多。

Justin Drake 回复:

protodanksharding 可能并不十分紧迫。

  • protodanksharding 之前的 rollup 已经实现 10 -100 倍的扩容了,而且像 Arbitrum 和 Optimism 这样的 rollup 的使用率还是很低 (请看 https://ethtps.info/ )
  • EIP-4488 可以在 EIP-4844 之前部署,以为 protodanksharding 争取时间。

domotheus 提问:

有什么办法可以估算出 danksharding 后在资本上所涉及的负载/成本?

例如,如果质押服务商占所有质押 ETH 的25%,我假设他们必须保存所有可用 blob 数据的 25%,用于采样 (在过期之前),因此他们的带宽/存储成本要比单个验证者或运营 1% 验证者的小型服务高得多。

这有可能会严重降低对中心化质押提供商 vs. 去中心化池的收益性 (还有终端用户的收益) 吗?

Vitalik 回复:

如果质押服务商占所有质押 ETH 的25%,我假设他们必须保存所有可用 blob 数据的 25%,用于采样 (在过期之前),因此他们的带宽/存储成本要比单个验证者或运营 1% 验证者的小型服务高得多。

请记住,我们希望每条数据都被数百个验证者冗余存储。因此,这将更像是,如果一个质押服务有所有质押的 ETH 的 1/256k,它将不得不存储 1/k 的所有数据。最大的质押服务商将被迫存储整条链的数据。

这绝对是故意这样设计的,以使成本曲线尽可能地线性化,并尽可能地不利于大型验证者。

Danny Ryan 回复:

数据的托管要求将随着验证者数量额增加而呈线性扩展,直到实体/节点被要求一直下载/存储 (用于托管期) 所有数据。在协议完全成熟之前,这个曲线的斜率是未定义的,但当你达到这些要求时,很可能是 100 个 (3200 个 ETH) 验证者的数量级。

注意,这是加密经济学的“托管”,但不能强制 p2p 活动 (即提供数据),因此数据可用性采样 (DAS) 设计依赖的是诚实假设,并在所有节点分布 (验证者或用户节点) 而不是少数拥有大量验证者的“超级节点”。

Dankrad Feist 回复:

有了托管证明后,每个验证者都必须保留一部分数据。在押金不多时 (1-64 个验证者),数据量将与运行的验证者的数量大致成比例。然而,在押金很多时,它会饱和,因为你已经保存了“所有的数据”。

其实没有办法让它一直成正比——因为我们希望网络中有冗余 (而且是大量的冗余),你不能设定 x% 的押金保存 x% 的数据,因为任何部分的押金如果处于离线状态,就会丢失对应比例的数据。


TShougo 提问:

EIP-4844 为每个区块提供 1MB 的分片 blob,以避免状态膨胀,在一定合理的时间后,例如 30-40 天后,所有数据将直接从全节点上被删除。

如果数据在 30-40 天后被删除,用户将如何访问更早的数据,以及我们如何确保以太坊以外的地方删除的数据不被破坏或完全丢失?

Carl Beekhuizen 回复:

你是对的,协议不保证对 blob 数据长期存储,但这是一个功能而不是一个错误。这个决定允许我们在约束节点系统要求的同时,仍然提供更多的数据吞吐量。

在这些数据不再需要被全节点存储后,有几个选项可以检索到这些数据。

  • 一开始把数据放在那里的 L2 会存储它
  • 存档节点存储所有的数据
  • 用户可以存储与他们的状态相关的数据 (例如,你存储访问你的账户的 L2 区块)

任何人都可以存储和提供数据,如果他们认为这样做是有价值的 (因为他们得到了报仇,或者因为他们重视数据的内在价值)。是谁存储这些数据并不重要,因为数据仍然是以加密的方式承诺的,因此不能像你说的那样被“破坏”。

Danny Ryan 回复:

数据可用性的安全要求需要在一定时期内提供数据,以确保想要数据的用户可以在一定时间内使用数据,并缓解数据截留攻击。因此,依赖数据可用性的 L1 应用的安全性不需要 L1 永远保证分布。

我们的假设是,一旦数据是可用的,它就不可能消失,除非它对所有可能的相关方完全没用 (在这种情况下,它可以消失)。即使如此,次级的假设是一旦数据是可用的,一定相关方将不可避免地存储它,不管其价值如何 (例如一些区块浏览器、学者等)。

参见这里有对“数据可用性问题”的一些讨论,以更好地了解像 4844 这样的 L1 数据可用性方案。

Vitalik 回复:

除了 Carl 和 Danny 的回答外,请看这篇解释长文 proto-danksharding FAQ


Sysntist 提问:

在上海硬分叉中实现 EIP-4844,其未解决的主要问题是什么?

还是规范大部分是完整的,并且大多数潜在问题将在客户端实现过程中出现?

George Kadianakis 回复:

你好!

幸运的是,EIP-4844 是一个受到社区喜爱的项目。

这意味着大部分研究已经完成,规范差不多已经完成了,初步的实现也写好了。

还有要做的工作,这里列出了未来的任务:

  • 解决 gas 定价问题(研究)
  • 实现和审计 KZG/多项式库(可能基于 blst)
  • 在所有客户端组合中实现和测试 EIP-4844

我的感觉是,由于更广泛社区的强烈激励,这个 EIP 将比其他 EIP 更容易完成,但只有时间会证明 :)

Danny Ryan 回复:

围绕该提案的主要担忧是复杂性(尤其是与其他上海升级相结合时)和安全考虑(例如 blob-TX 内存池 DoS 和其他潜在问题)。

试图通过规范改进、简化、工程支持、测试等来减轻复杂性问题。

然而,随着时间的推移,我们都会坐下来思考并尝试解决安全问题。在发布之前从每个对抗的角度考虑这种变化是至关重要的。 我们(EF 研究团队)做了很多这样的工作,但客户端团队的工程师也这样做也是非常宝贵的,这已经开始了,但不可避免的是直到他们真正开始着手生产实现时才会停止考虑。我认为,如果出现任何问题,它们将在工程进行时考虑边缘情况下的安全问题。

Tim Beiko 回复:

我在这里查看了一个列表:https://notes.ethereum.org/@timbeiko/4844-open-issues

我认为 blob 同步不会成为挑战,而且这也在研究中。当多个客户端实现它时肯定会出现问题,但希望那时的设计会比较稳定!

合并

KuDeTa 提问:

  1. 我担心的是,如果我们发现很难协调和配置一个需许可的测试网 (Sepolia),它由一个选定的和富有经验的验证者组来运行,那么当到主网时,我们可能会遇到麻烦——也许甚至会有一段混乱期,我们无法做最终敲定。EF 会做什么来确保我们有足够的工具和教育 (等) 来尽量减少中断的可能性?
  2. 同样地,EF 预计现在的矿工在我们接近真正的合并时会有什么样的表现?最近的算力一直在下降。有一种说法是,它的加速可能是出于纯粹的恶意,可能是由于挖矿硬件带来的其他经济机会 (挖其他代币,抛售),如果发生这种情况,我们将如何处理?
  3. 你们对最近的 Lido 治理投票有什么看法?

Danny Ryan 回复:

问题 1:

Sepolia 合并测试出了一个糟糕的用户体验,这在主网上是不会出现的。这个用户体验是设置一个非常高的 TTD 作为恶意矿工 (他们可以很容易地将测试网的算力提高到 10 倍或 100 倍) 的防御机制,然后当大家都部署好节点后,“取消设置”。

“取消设置”的行为需要改变 CLI 标志或运行带有新 TTD 的新客户端版本并禁用之前覆盖。很多团队运行了新版本,但没有禁用这个 CLI 覆盖。这个覆盖参数之所以是“覆盖”参数,覆盖了写在新版本代码里的 TTD,因此这些节点没有通过合并。

这个用户体验 (似乎很容易出问题) 将不会在主网上使用。客户端版本都会设有一个 TTD,而 CLI 覆盖只会在矿工离开区块链而需要快速合并的情况下使用。因此,在这种情况下,用户要么需要下载一个新的客户端版本,或在 CLI 中设置 flag。他们不需要“取消”这个 flag,因为这就是出错的根源。

综上所述,两个软件的部署比今天一个软件要复杂得多,我们应该把 Sepolia 合并作为支持技术指南的提醒,举办 Q&A 活动,鼓励用户在 Goerli 测试网上练习等。因此,虽然我不认为这个问题会发生,但我确实怀疑我们会看到一些问题,并提前做好预防措施。如果你想在未来几周写一些合并的教程,请点击 EF 资助计划

问题 2:

我怀疑矿工们很可能不会做什么,有些会提前出售他们的矿机。矿工攻击有可能发生,但我认为可能性不大。

如果许多矿工提前出售矿机并离开,TTD 的计算就会被打乱,合并的时间也会被推迟。在这种情况下, TTD 覆盖可能/将会被用来重新配置时间。

如果真的发生矿工攻击,我们可以/应该紧急中止 PoW,尽快跳入 PoS。这将需要在 PoW 链中的某一点上就最后一个 PoW 区块进行事后协调,这会对活性带来影响,然后尽快合并。我怀疑这至少需要 48,甚至 72 小时才能完成,但鉴于我们不再能够相信链的稳定性,这样做是必须的。

我在阿姆斯特丹的 Secureum 会议上做了一个关于合并设计中的安全考虑因素的演讲,而且实际上我们也接近合并了。观看链接: https://www.youtube.com/watch?v=Jox7Z0Dw8S4

问题 3:

我认为 LSD (流动性质押衍生品) 池查过了一定的阈值,对协议的稳定性和选择好阈值资金池的用户资金都有内在的风险。https://notes.ethereum.org/@djrtwo/risks-of-lsd

我认为,当协议仪式到他们给用户带来的风险,当用户意识到是在如此高的阈值下汇集资金时,这样的问题可以/将会得到缓解。这次投票属于前一种情况。不幸的是,如果这些协议继续对风险掉以轻心的话,可能需要发生一些严重的问题才能真正向各方传达风险,我认为这不是一个假设,而是看什么时候发生的问题。


egodestroyer2 提问:

预计什么时候合并?

Justin Drake 回复:

新的谢林点可能是 Devcon,就是在 Devcon 周前在 9 月合并,Devcon 从 10 月 7 日开始。看起来 Erigon 可能会通过所有的 114 个 Hive 测试,这将是一个好消息,那么在 8 月成功合并 Goerli 网似乎是完全可行的。

合并后

Freshsekac 提问:

在 SSLE 实现之前,你们对合并后的潜在 DDOS 攻击向量有多担心/你们认为我们会看到这种情况发生吗?你们认为 SSLE 的实现需要多长时间?

Justin Drake 回复:

在 SSLE 实现之前,你们对合并后的潜在 DDOS 攻击向量有多担心/你们认为我们会看到这种情况发生吗?

在我看来,有两种可能的攻击:

  1. 不喜欢以太坊 (或可能持有 ETH 空头头寸) 的攻击者可能想以相对较低的成本扰乱家庭验证者的出块。
  2. 专业的 MEV 提取者会对验证者进行 DoS 攻击,以提取更多的 MEV (例如,通过时间购买攻击或随机偏差攻击)。

你们认为 SSLE 的实现需要多长时间?

现实来说,至少合并后一年。话虽如此,如果我们确实看到主网受到攻击, SSLE 可能会加快。

George Kadianakis 回复:

这里的好消息是,即使没有成熟的 SSLE 解决方案,即使对于个人家庭质押者也有办法缓解 DDoS 攻击。

特别是,我们的目标是隐藏正在做提议区块的信标节点,因为这是 DDoS 攻击者的主要目标,也是质押者的主要收益来源。

我们可以通过采用基本的前端/后端设计来获得 DoS 韧性:验证者客户端留在后端,而前端使用两个独立的信标节点:一个用于发布证明,另一个用于发布区块提议。通过保持这两个信标节点独立和断开连接,正在提议的信标节点保持隐藏并得到很好的保护。

但是,这种方法会增加运行者的配置成本,他们需要设置 VPS/VPN 节点并不断轮换它们,但在我们实现 SSLE 之前,它的确可以缓解 DDoS 攻击。

MEV

TurboJetMegaChrist 提问:

人们普遍认为,MEV 是不可避免的,如果我们想限制它的负外部性,我们应该让它是无需许可的、与 FlashBots 等工具竞争。

虽然我相信一个竞争的提议者-构建者市场是目前的发展方向,但在基础协议上是否有什么可以减少对最恶劣的 MEV 的激励?也许可以在一定时间内均匀分配区块奖励。

关于 MEV 的普遍担忧是什么,以太坊研究团队在多大程度上觉得它是一个值得花时间的话题?

Justin Drake 回复:

关于 MEV 的普遍担忧是什么

对我来说,对 MEV 最担忧大约是 12 个月前。现在,我对 MEV 在研究层面上能得到“解决”是乐观的:

区块构建中心化带来的系统性风险通过提议者-构建者分离方案来解决,并强制交易打包以抵审查。MEV 的不稳定性通过 MEV 的均匀分配来解决。

有毒的 MEV (本质上就是各种抢跑) 基本上可以通过加密的交易池来消除。其基本思想是使用加密技术 (如阈值或延迟加密),即在交易广播到交易池之前就被加密了。然后,这些加密的交易在被打包到链上之后会自动解密。就这个话题我做了两个演讲:

以太坊研究团队在多大程度上觉得它是一个值得花时间的话题?

大约一年前,我花了几个月的时间尽可能地深入研究 MEV。现在,它只占我时间的不够10%。

Barnabé Monnot 回复:

MEV 是区块空间经济价值这个大难题中的一个关键部分,所以理应关注这个问题,特别是在 PBS 的背景下,也可以看到我在这里的回答:https://www.reddit.com/r/ethereum/comments/vrx9xe/comment/if7becf/?utm_source=share&utm_medium=web2x&context=3

Vitalik 回复:

这绝对是一个忧虑。短期的解决方案基本上是希望 MEV Boost 可以工作得更好。通过 PBS,MEV Boost 可以解决大部分的问题,但它需要对中继中间件有额外的信任,而协议内的解决方案可以完全避免这种信任。从长远来看,协议内的 PBS 才是我们的方向。


Lifter_Dan 提问:

与在家质押相比,信任像 Flashbots 或其他一些 MEV 服务商有什么风险?

如果 Flashbots 做错了什么,会有罚没风险吗?智能合约有风险吗?会由于安装在质押设备上的软件而有风险吗?或其他任何风险?

Vitalik 回复:

信任 Flashbots (假设你指的是 MEV Boost) 没有罚没风险。最坏的情况是,如果 MEV boost 的基础设施出问题了,或你信任的节点被黑了,你可能会提议不可用的区块并失去提议者奖励。


Lifter_Dan 提问:

需要自己运行多少个验证者才可以获得有收益的 MEV 而不需要使用像 Flashbots 这样的服务?只有 5-10 个可能吗?收入差异会是什么样?

Barnabé Monnot 回复:

正如 Justin 所说,运行验证者并不能形成真正的规模经济。如果你在想的是多区块 MEV 或跨域 MEV,情况就更不是这样,但在你有相当份额的押金之前,这种规模经济是不会出现的。那么,问题就在于你是否有能力自己提取 MEV,而不是你运行多少个验证者,后者只会提高你能够提取的频率。如果你不想使用外部的交易捆/构建者网络,你也许可以想出简单的 MEV 策略,并让你的执行客户端按照这些策略构建区块。

ECN的翻译工作旨在为中国以太坊社区传递优质资讯和学习资源,文章版权归原作者所有,转载须注明原文出处以及ethereum.cn,若需长期转载,请联系eth@ecn.co进行授权。

Arweave TX
MgOw8LKGO5JXVJt4SiGXhct5As7j6WPBCKUzg74w7iY
Ethereum Address
0x85ecCCF0495048873AdFd107343630C95d49F42C
Content Digest
rpIYaRqmXINRR9B-2OsWYtd1-G2WTkkzB-_2Ulj_C-k