• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

Vitalik:依靠任何AI都可以自由参与竞争性开放市场吗?

  • 2025年3月03日 15:51

原文标题:AIastheengine,humansasthesteeringwheel

作者:Vitalik,Ethereum创始人;编译:白水,金色财经

特别感谢DevanshMehta、DavideCrapis和JulianZawistowski的反馈和审查,以及TinaZhen、ShawWalters和其他人的讨论。

如果你问人们喜欢民主结构的哪些方面,无论是政府、工作场所还是基于Blockchain的DAO,你经常会听到相同的论点:它们避免权力集中,它们为用户提供强有力的保证,因为没有一个人可以随心所欲地完全改变系统的方向,它们可以通过收集许多人的观点和智慧来做出更高质量的决策。

如果你问人们不喜欢民主结构的哪些方面,他们经常会给出相同的抱怨:普通选民不够老练,因为每个选民只有很小的机会影响结果,很少有选民在决策中投入高质量的思考,而且你经常会得到低参与度(使系统易于攻击)或事实上的集中化,因为每个人都默认信任和复制一些有影响力的人的观点。

这篇文章的目标是探索一种范式,也许可以使用人工智能让我们从民主结构中获益而没有负面影响。“人工智能是引擎,人类是方向盘”。人类只向系统提供少量信息,可能只有几百位,但都是经过深思熟虑且质量极高的。人工智能将这些数据视为“目标函数”,并不知疲倦地做出大量决策,尽最大努力实现这些目标。特别是,这篇文章将探讨一个有趣的问题:我们能否在不将单个人工智能置于中心的情况下做到这一点,而是依靠任何人工智能(或人机混合体)都可以自由参与的竞争性开放市场?

eX5akh6Nb0PMI4ABlb8cQ6j0g3hn4OcvTEyDbuKy.jpeg

单个“游戏玩家”可以是LLM、相互交互并调用各种互联网服务的LLM群、各种AI+人类组合以及许多其他构造;作为机制设计师,您不需要知道。理想目标是拥有一个可以自动运行的机制——如果该机制的目标是选择资助什么,那么它应该尽可能地像Bitcoin或Ethereum区块奖励一样。

这种方法的好处是:

它避免将任何单一模型纳入机制;相反,你会得到一个由许多不同参与者和架构组成的开放市场,它们都有自己不同的偏见。开放模型、封闭模型、代理群、人类+AI混合体、机器人、无限猴子等都是公平的游戏;该机制不会歧视任何人。

该机制是开源的。虽然玩家不是,但游戏是开源的——而且这是一种已经被相当充分理解的模式(例如,政党和市场都以这种方式运作)

该机制很简单,因此机制设计者将自己的偏见编码到设计中的途径相对较少

该机制不会改变,即使从现在开始直到奇点,底层参与者的架构每三个月需要重新设计一次。

指导机制的目标是忠实地反映参与者的根本目标。它只需要提供少量信息,但应该是高质量的信息。

你可以认为该机制利用了提出答案和验证答案之间的不对称性。这类似于数独很难解决,但很容易验证解决方案是否正确。你(i)创建一个开放的市场,让玩家充当“解题者”,然后(ii)维护一个由人类运行的机制,执行验证已提出解决方案的简单得多的任务。Futarchy

Futarchy最初由RobinHanson提出,意为“投票价值,但赌注信念”。投票机制选择一组目标(可以是任何目标,但前提是它们必须是可衡量的),然后将其组合成一个度量M。当您需要做出决定时(为简单起见,我们假设是YES/NO),您会设置条件市场:您要求人们押注(i)是否会选择YES或NO,(ii)如果选择YES,则M的值,否则为零,(iii)如果选择NO,则M的值,否则为零。有了这三个变量,您就可以确定市场是否认为YES或NO对M的值更有利。

exm0UEqPUEU7B2KRJfw4bHv5nv8GEhyRLMUSpQ04.jpeg

用于信用分配的精炼人类判断的玩具示例,请参阅此处的Python代码。脚本要求您担任陪审团,并包含一些预先包含在代码中的AI生成(和人类生成)完整列表。该机制识别最适合陪审团答案的完整列表的线性组合。在这种情况下,获胜组合是0.199*Claude的答案+0.801*Deepseek的答案;这个组合比任何单个模型都更符合陪审团的答案。这些系数也将是给予提交者的奖励。

在这个“击败索伦”的例子中,“人类作为方向盘”的方面体现在两个地方。首先,每个问题都应用了高质量的人类判断,尽管这仍然利用陪审团作为“技术官僚”绩效评估者。其次,有一个隐含的投票机制,决定“击败索伦”是否是正确的目标(而不是,比如说,试图与索伦结盟,或将某条关键河流以东的所有领土都交给他作为和平让步)。还有其他精炼的人类判断用例,其中陪审团的任务更直接地带有价值观:例如,想象一个分散的社交媒体平台(或子社区),陪审团的工作是将随机选择的论坛帖子标记为遵守或不遵守社区规则。

在提炼人类判断范式中,存在一些开放变量:

如何进行抽样?完整名单提交者的作用是提供大量答案;陪审员的作用是提供高质量的答案。我们需要以这样的方式选择陪审员,并为陪审员选择问题,即模型匹配陪审员答案的能力最大程度地表明其总体表现。一些考虑因素包括:

专业知识与偏见的权衡:熟练的陪审员通常专门从事其专业领域,因此让他们选择要评级的内容,您将获得更高质量的输入。另一方面,过多的选择可能会导致偏见(陪审员偏爱与他们有联系的人的内容)或抽样的弱点(某些内容系统地未评级)

反古德哈特:将有内容试图“玩弄”人工智能机制,例如,贡献者生成大量看起来令人印象深刻但无用的代码。这意味着陪审团可以检测到这一点,但静态人工智能模型除非他们努力尝试,否则不会检测到。捕捉这种行为的一种可能方法是添加一种挑战机制,通过该机制,个人可以标记此类尝试,保证陪审团对其进行判断(从而激励人工智能开发人员确保正确捕捉它们)。如果陪审团同意,举报者将获得奖励,如果陪审团不同意,则要支付罚款。

您使用什么评分函数?当前深度资助试点中使用的一个想法是询问陪审员“A还是B应该获得更多的信用,以及多多少?”。评分函数为score(x)=sum((log(x[B])-log(x[A])-log(juror_ratio))**2for(A,B,juror_ratio)injury_answers):也就是说,对于每个陪审团答案,它会询问完整列表中的比率与陪审员提供的比率有多远,并添加与距离平方成比例的惩罚(在对数空间中)。这是为了表明评分函数的设计空间很丰富,评分函数的选择与您向陪审员提出哪些问题的选择有关。

您如何奖励完整列表提交者?理想情况下,您希望经常给予多个参与者非零奖励,以避免垄断机制,但您也希望满足以下属性:参与者不能通过多次提交相同(或略微修改)的答案集来增加奖励。一种有希望的方法是直接计算最适合陪审团答案的完整列表的线性组合(系数非负且总和为1),并使用这些相同的系数来分割奖励。也可能有其他方法。

总的来说,目标是采用已知有效、偏见最小化且经受住了时间考验的人类判断机制(例如,想象一下法院系统的对抗结构如何包括争议的两方,他们拥有大量信息但有偏见,而法官拥有少量信息但可能没有偏见),并使用开放的人工智能市场作为这些机制的合理高保真度和非常低成本的预测指标(这类似于法学硕士“提炼”的工作方式)。深度融资

深度融资是将人类精炼的判断应用于填写“X的信用有多少百分比属于Y?”图上边的权重问题。

最简单的方法是直接用一个例子来说明:

两级深度融资示例的输出:Ethereum的思想起源。请在此处查看Python代码。

这里的目标是分配对Ethereum的哲学贡献的荣誉。让我们看一个例子:

这里显示的模拟深度融资轮次将20.5%的功劳归于密码朋克运动,将9.2%的功劳归于技术进步主义。

在每个节点中,您都会提出一个问题:它在多大程度上是原创贡献(因此它值得为自己赢得功劳),在多大程度上是其他上游影响的重新组合?对于密码朋克运动,它有40%是新的,60%是依赖项。

然后,您可以查看这些节点上游的影响:自由主义小政府主义和无政府主义为密码朋克运动赢得了17.3%的功劳,但瑞士直接民主只获得了5%。

但请注意,自由主义小政府主义和无政府主义也启发了Bitcoin的货币哲学,因此它通过两种途径影响了Ethereum的哲学。

要计算自由主义小政府主义和无政府主义对Ethereum的总贡献份额,你需要将每条路径上的边相乘,然后将路径相加:0.205*0.6*0.173+0.195*0.648*0.201~=0.0466。因此,如果你必须捐赠100美元来奖励所有为Ethereum的哲学做出贡献的人,根据这一模拟的深度融资轮,自由主义小政府主义者和无政府主义者将获得4.66美元。

这种方法旨在适用于那些在以前的工作基础上进行工作且结构高度清晰的领域。学术界(想想:引用图)和开源软件(想想:库依赖关系和分叉)就是两个自然的例子。

一个运作良好的深度资助系统的目标是创建和维护一个全局图,任何有兴趣支持某个特定项目的资助者都能够将资金发送到代表该节点的地址,资金将根据图边缘的权重自动传播到其依赖项(并递归到它们的依赖项等)。

你可以想象一个去中心化协议使用内置深度融资装置来发行其Tokens:协议内的去中心化治理将选择一个陪审团,陪审团将运行深度融资机制,因为协议会自动发行Tokens并将其存入与其自身对应的节点。通过这样做,协议以编程方式奖励其所有直接和间接贡献者,让人想起Bitcoin或Ethereum区块奖励如何奖励一种特定类型的贡献者(矿工)。通过影响边缘的权重,陪审团可以不断定义它重视的贡献类型。这种机制可以作为Mining、销售或一次性空投的去中心化和长期可持续的替代方案。增加隐私

通常,要对上述示例中的问题做出正确的判断,需要能够访问私人信息:组织的内部聊天记录、社区成员秘密提交的信息等。“仅使用单个AI”的一个好处,尤其是在规模较小的环境中,是让一个AI访问信息比向所有人公开信息更容易被接受。

为了在这些情况下使精炼的人类判断或深度资助发挥作用,我们可以尝试使用加密技术安全地让AI访问私人信息。这个想法是使用多方计算(MPC)、完全同态加密(FHE)、可信执行环境(TEE)或类似机制来提供私人信息,但仅限于其唯一输出是直接放入机制中的“完整列表提交”的机制。

如果你这样做,那么你就必须将机制集限制为AI模型(而不是人类或AI+人类组合,因为你不能让人类看到数据),并且特定于在某些特定基底(例如MPC、FHE、可信硬件)中运行的模型。一个主要的研究方向是找出近期足够有效、有意义的实用版本。发动机+方向盘设计的优点

这样的设计有许多令人期待的好处。迄今为止,最重要的好处是,它们允许构建DAO,让人类选民控制方向,但他们不会被过多的决策所困扰。它们达到了折衷,每个人不必做出N个决定,但他们拥有的权力不仅仅是做出一个决定(委托通常如何运作),而且更能引发难以直接表达的丰富偏好。

此外,这样的机制似乎具有激励平滑特性。我在这里所说的“激励平滑”是两个因素的组合:

扩散:投票机制采取的任何单一行动都不会对任何单一参与者的利益产生过大影响。

混乱:投票决策与它们如何影响参与者利益之间的联系更加复杂且难以计算。

这里的混淆和扩散这两个术语取自密码学,它们是密码和哈希函数安全的关键属性。

当今现实世界中激励平滑的一个很好的例子是法治:政府高层不会定期采取“给爱丽丝的公司2亿美元”、“罚款鲍勃的公司1亿美元”等形式的行动,而是通过旨在均匀应用于大量参与者的规则,然后由另一类参与者进行解释。当这种方法奏效时,好处是它大大减少了贿赂和其他形式腐败的好处。当它被违反时(在实践中经常发生),这些问题很快就会被大大放大。

人工智能显然将成为未来的重要组成部分,这将不可避免地成为未来治理的重要组成部分。但是,如果你让人工智能参与治理,这有明显的风险:人工智能有偏见,它可能在训练过程中被故意破坏,而且人工智能技术发展如此之快,“让人工智能掌权”可能实际上意味着“让负责升级人工智能的人掌权”。精炼的人类判断提供了一条前进的替代道路,让我们能够以开放的自由市场方式利用人工智能的力量,同时保持人类控制的民主。

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM