• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

Vitalik最新文章:一年之后再审视d/acc

  • 2025年1月06日 14:08

原标题:d/acc:oneyearlater

作者:Vitalik,Ethereum创始人;编译:0xjs@金色财经

大约一年前,我写了一篇关于技术乐观主义的文章,描述了我对技术的热情以及它能带来的巨大好处,以及我对一些具体问题的谨慎,这些担忧主要集中在超级智能AI上,以及如果技术以错误的方式构建,它可能会带来厄运或不可逆转的人类无能为力的风险。我这篇文章的核心思想之一是 :去中心化、民主化、差异化防御加速主义(decentralizedanddemocratic,differentialdefensiveacceleration)。加速技术发展,但要区别对待,重点关注提高我们防御能力的技术,而不是提高我们造成伤害的能力,以及去中心化权力的技术,而不是将权力集中在代表所有人决定真假善恶的单一精英手中。防御就像民主的瑞士和历史上准无政府主义的赞米亚(注:美国著名社会学家JamesC.Scott研究东南亚提出的Zomia概念,赞米亚核心在于难于被统治),而不是像中世纪封建主义的领主和城堡。

在那之后的一年里,我的理念和想法已经成熟了很多。我在80,000Hours上谈到了这些想法,看到了很多反响,大部分是积极的,也有批评性的。这项工作本身正在继续,并取得成果:我们看到可验证开源疫苗的进展,人们越来越认识到健康室内空气的价值,CommunityNotes继续闪耀,预测市场作为信息工具的突破之年,政府ID和社交媒体中的ZK-SNARK(以及通过账户抽象保护Ethereum钱包),开源成像工具在医学和BCI中的应用,等等。秋天,我们举办了第一个重要的d/acc活动:在Devcon的“d/acc发现日”(d/aDDy),一整天都有来自d/acc所有支柱(生物、物理、网络、信息防御以及神经技术)的演讲者。多年来一直致力于这些技术的人们越来越了解彼此的工作,而外界人士也越来越意识到更大的故事:激发Ethereum和Crypto的相同价值观可以应用于更广阔的世界。

ni6TYGPpG3wQJFfseW8ZnLQyvovnnALClAGQqPGZ.pngDevcond/acc日

Devcon上d/acc活动最积极的收获之一是d/acc这个伞状结构成功地将来自不同领域的人们聚集在一起,并让他们真正对彼此的工作感兴趣。

创造“多样性”的活动很容易,但让具有不同背景和兴趣的人真正相互联系却很难。我仍然记得在中学和高中被迫观看长歌剧的记忆,我个人觉得它们很无聊。我知道我“应该”欣赏它们,因为如果我不欣赏,那么我就会成为一个没有文化的计算机科学懒汉,但我并没有在更真实的层面上与内容产生联系。d/accday根本没有这种感觉:感觉人们实际上喜欢学习不同领域的不同类型的工作。

如果我们想要创造一个比统治、减速和毁灭更光明的替代方案,我们需要这种广泛的联盟建设。d/acc似乎确实取得了成功,仅此一点就足以说明这个想法的价值。

d/acc的核心思想很简单:去中心化和民主化的差异化防御加速主义(decentralizedanddemocraticdifferentialdefensiveacceleration)。建立将进攻/防御平衡转向防御的技术,并且不依赖于将更多权力移交给中央集权机构。这两者之间存在着内在联系:任何一种去中心化、民主或自由的政治结构在防御容易时都会蓬勃发展,而在防御困难时会遭受最大的挑战——在这些情况下,更有可能的结果是一段人人反对所有人的战争时期,最终实现强者统治的平衡。

d/acc的核心原则涵盖许多领域:

YDnDDOK0wrCm9Zvq7kOKgCh2IogFWkPKQckbq5S1.png我们的目标是建立一个保留人类自主权的世界,既要实现消极自由,避免主动干预(无论是来自其他作为私人公民的人,还是来自政府,还是来自超级智能机器人)我们塑造自己命运的能力,又要实现积极自由,确保我们拥有知识和资源。这呼应了几个世纪以来的古典自由主义传统,其中还包括斯图尔特·布兰德(StewartBrand)对“获取工具”的关注,约翰·斯图尔特·密尔(JohnStuartMill)对教育和自由作为人类进步关键组成部分的强调——也许,人们可以补充一点,巴克敏斯特·富勒(BuckminsterFuller)希望看到全球解决进程具有参与性和广泛分布性。考虑到21世纪的技术格局,我们可以将d/acc视为实现这些相同目标的一种方式。二、第三维度:生存与发展

在我去年的文章中,d/acc特别关注了防御技术:物理防御、生物防御、网络防御和信息防御。然而,去中心化防御不足以让世界变得更美好:你还需要一个前瞻性的积极愿景,看看人类可以利用其新发现的去中心化和安全性来实现什么。

去年的文章确实包含了积极的看法,表现在两个地方:

针对超级智能所面临的挑战,我提出了一条不剥夺权力就能拥有超级智能的途径(这对我来说远非原创):

今天,要将AI打造为工具,而不是高度自主的智能体

明天将利用虚拟现实、肌肉电信号和脑机接口等工具在人工智能和人类之间建立越来越紧密的反馈

随着时间的推移,最终的结果是超级智能成为机器和我们紧密结合的组合。

在谈论信息防御时,我也顺便提到,除了试图帮助社区在攻击者面前保持凝聚力、进行高质量讨论的防御性社交技术之外,还有一些进步的社交技术可以帮助社区更容易地做出高质量的判断:pol.is就是一个例子,预测市场是另一个例子。

但这两点与d/acc的论点似乎脱节:“这里有一些在基础层创建一个更加民主和有利于防御的世界的想法,顺便说一下,这里有一些关于我们如何实现超级智能的不相关的想法”。

然而,我认为实际上,上面所说的“防御性”和“进步性”d/acc技术之间存在一些非常重要的联系。让我们扩展去年文章中的d/acc图表,在图表中添加此轴(同样,让我们将其重新标记为“生存与繁荣”),看看会出现什么结果:

zq5Oij2YJeJY3X3SDVK6gRu42X3UmBPcuXKvmmyM.png

不同的人有着截然不同的AI时间表。图表来自黑山的Zuzalu,2023年。

我发现,对我去年文章最有说服力的反对意见是来自AI安全社区的批评。该论点是:“当然,如果我们有半个世纪的时间才能获得强大的AI,我们可以集中精力打造所有这些好东西。但实际上,我们很可能还有三年的时间才能实现AGI,再过三年才能实现超级智能。因此,如果我们不想让世界被毁灭或陷入不可逆转的陷阱,我们就不能 只加速好事的发生,还必须减缓坏事的发生,这意味着要通过强有力的法规,这可能会让有权势的人感到不安。”在我去年的文章中,我确实没有呼吁任何具体的策略来“减缓坏事的发生”,只是含糊地呼吁不要建立有风险的超级智能形式。因此,在这里,值得直接回答这个问题:如果我们生活在最不方便的世界,人工智能风险很高,时间表可能还需要五年时间,我会支持什么法规?首先,对新法规持谨慎态度

去年,加州提出的最主要的人工智能监管法案是SB-1047法案。SB-1047要求最强大的模型(那些花费超过1亿美元进行训练,或微调超过1000万美元的模型)的开发者在发布之前采取一些安全测试措施。此外,它还规定,如果人工智能模型的开发者不够谨慎,他们要承担责任。许多批评者认为该法案是“对开源的威胁”;我不同意,因为成本门槛意味着它只影响最强大的模型:即使是LLama3也可能低于门槛。然而,回头看,我认为该法案有一个更大的问题:像 大多数法规一样,它与当今的情况过度拟合。在新技术面前,对训练成本的关注已经显得脆弱:最近最先进的Deepseekv3模型的训练成本仅为600万美元,而在像o1这样的新模型中,成本正在从训练转向更普遍的推理。

其次,最有可能真正对人工智能超级智能毁灭场景负责的参与者实际上是军队。正如我们在过去半个世纪(及以后)的生物安全领域所看到的那样,军队愿意做可怕的事情,而且他们很容易犯错。人工智能军事应用正在迅速发展(见乌克兰、 加沙)。政府通过的任何安全法规默认都会豁免本国军队以及与军方密切合作的公司。

尽管如此,这些论点并不是我们放弃和不采取任何行动的理由。相反,我们可以将其作为指导,并尝试制定出最少引发这些担忧的规则。策略一:责任

如果某人的行为造成了可诉诸法律的损害,他们可能会被起诉。这并不能解决来自军队和其他“凌驾于法律之上”的行为者的风险问题,但它是一种非常通用的方法,可以避免过度拟合,并且通常 因为这个原因而受到自由主义倾向经济学家的支持。

迄今为止考虑的责任主要目标是:

用户——使用人工智能的人

部署者——为用户提供AI服务的中介机构

开发人员——构建人工智能的人

让用户承担责任似乎最符合激励机制。虽然模型的开发方式与最终使用方式之间的联系通常不清楚,但用户决定了人工智能的具体使用方式。 让用户承担责任会给人工智能带来强大的压力,迫使人们以我认为正确的方式开发人工智能:专注于为人类思维打造机甲套装,而不是创造新形式的自我维持智能生命。前者会定期响应用户意图,因此不会导致灾难性行为,除非用户希望这样做。后者最有可能失控并造成典型的“人工智能失控”场景。将责任尽可能靠近最终使用位置的另一个好处是,它可以最大限度地降低责任导致人们采取其他有害行为的风险(例如,闭源、KYC和监视、国家/企业勾结以秘密限制用户,例如取消银行业务、封锁世界大部分地区)。

有一种经典的论点反对将责任完全归咎于用户:用户可能是没有太多钱的普通人,甚至是匿名的,没有人能够真正为灾难性的伤害买单。这种论点可能被夸大了:即使有些用户太小而不需要承担责任,但人工智能开发人员的普通客户却不是这样,因此人工智能开发人员仍然会受到激励去构建能够向用户保证不会面临高责任风险的产品。话虽如此,这仍然是一个有效的论点,需要加以解决。你需要激励管道中拥有资源的人采取适当的谨慎措施,而部署者和开发人员都是容易被攻击的目标,他们仍然对模型的安全性有很大的影响。

部署者责任似乎是合理的。一个常见的担忧是,它不适用于开源模型,但这似乎是可以控制的,特别是因为最强大的模型很有可能是闭源的(如果它们最终是开源的,那么虽然部署者责任最终没有多大用处,但也不会造成太大伤害)。开发者责任也有同样的担忧(尽管对于开源模型,需要对模型进行微调以使其执行一些最初不允许的事情),但同样的反驳也适用。作为一般原则, 对控制征收“税”,本质上说“你可以建造你无法控制的东西,或者你可以建造你控制的东西,但如果你建造你控制的东西,那么20%的控制权必须用于我们的目的”,这似乎是法律体系的合理立场。

一个似乎未被充分探索的想法是将责任归咎于管道中的其他参与者,他们更能保证获得充足的资源。一个非常有利于d/acc的想法是,在执行某些灾难性有害行动的过程中,将责任归咎于人工智能接管(例如通过黑客攻击)的任何设备的所有者或操作员。这将产生非常广泛的激励,促使人们努力工作,使世界(尤其是计算和生物)基础设施尽可能安全。策略二:工业级硬件上的全局“软暂停”按钮

如果我确信我们需要比责任规则更“有力”的东西,这就是我要追求的。目标是能够在关键时期将全球可用计算能力减少约90-99%达1-2年,为人类争取更多时间做好准备。1-2年的价值不应被夸大:在自满的情况下,一年的“战时模式”很容易抵得上一百年的工作。已经探索了实施“暂停”的方法,包括要求注册和验证硬件位置等具体建议。

更先进的方法是使用巧妙的加密技巧:例如,生产的工业级(但不是消费级)人工智能硬件可以配备一个可信的硬件芯片,只有每周从主要国际机构(包括至少一个非军事附属机构)获得3/3的签名,它才能继续运行。这些签名将与设备无关(如果需要,我们甚至可以要求提供零知识证明,证明它们已在Blockchain上发布),因此这将是全有或全无:没有实际的方法可以在不授权所有其他设备的情况下授权一台设备继续运行。

这感觉就像是在最大化利益和最小化风险方面“勾选了方框”:

这是一种很有用的能力:如果我们收到警告信号,表明近乎超级智能的AI开始做一些有可能造成灾难性破坏的事情,我们就会希望更缓慢地进行转变。

在这种关键时刻发生之前,仅仅拥有软暂停功能不会对开发人员造成太大的伤害。

专注于工业规模的硬件,并且只以90-99%为目标,可以避免在消费者笔记本电脑中安装间谍芯片或终止开关,或强迫小国采取严厉措施等反乌托邦的做法。

专注于硬件似乎对技术变化非常有效。我们已经看到,在多代人工智能中,质量在很大程度上取决于可用的计算能力,尤其是在新范式的早期版本中。因此,将可用计算能力减少10-100倍,很容易决定失控的超级智能人工智能在与试图阻止它的人类的快节奏战斗中胜出或失败。

每周需要上网一次签名本身就很烦人,这会对将该计划扩展到消费硬件产生强大的压力。

它可以通过随机检查来验证,并且在硬件级别进行验证将使特定用户的豁免变得困难(基于法律强制关机而不是技术上的方法不具有这种全有或全无的属性,这使得它们更有可能滑向军队等的豁免)

硬件监管已经在被认真考虑,尽管通常是通过出口管制的框架,而出口管制本质上是一种“我们信任我们一方,但不信任另一方”的理念。利奥波德·阿申布伦纳(LeopoldAschenbrenner)曾主张美国应该竞相获得决定性优势,然后迫使中国签署一项协议,限制他们允许运行的盒子数量。在我看来,这种方法似乎很危险,可能结合了多极竞争和中心化化的缺陷。如果我们必须限制人们,那么似乎最好在平等的基础上限制每个人,并努力尝试合作来组织这项工作,而不是一方试图主宰其他所有人。AI风险中的d/acc技术

这两种策略(责任和硬件暂停按钮)都有漏洞,而且很明显它们只是暂时的权宜之计:如果某件事在T时间可以在超级计算机上完成,那么在T+5年后,它很可能在笔记本电脑上完成。因此,我们需要更稳定的东西来争取时间。许多d/acc技术都与此相关。我们可以这样看待d/acc技术的作用:如果人工智能接管世界,它会怎么做?

它入侵我们的计算机→网络防御

它会引发超级瘟疫→生物防御

它让我们信服(要么相信它,要么互相不信任)→信息防御

正如上文简要提到的,责任规则是一种天然的d/acc友好型监管方式,因为它们可以非常有效地激励世界各地采用这些防御措施并认真对待。中国台湾最近一直在试验虚假广告的责任,这可以被视为使用责任来鼓励信息防御的一个例子。我们不应该过于热衷于在任何地方都施加责任,并记住普通自由的好处,即让小人物参与创新而不必担心诉讼,但在我们确实希望更有力地推动安全的地方,责任可以非常灵活和有效。四、Crypto在d/acc中的作用

d/acc的大部分内容远远超出了典型的Blockchain主题:生物安全、BCI和协作话语工具似乎与Crypto人士通常谈论的内容相去甚远。然而,我认为Crypto和d/acc之间存在一些重要的联系,特别是:

d/acc是加密的底层价值(去中心化、抗审查、开放的全球经济和社会)到其他技术领域的延伸。

由于加密用户是天生的早期采用者,并且价值观一致,因此加密社区是d/acc技术的天然早期用户。对社区的高度重视(包括线上和线下,例如活动和弹出窗口),以及这些社区实际上在做高风险的事情而不是仅仅互相交谈的事实,使得加密社区成为特别有吸引力的d/acc技术的孵化器和试验台,这些技术从根本上是针对群体而不是个人(例如,很大一部分信息防御和生物防御)。加密人只是一起做事。

许多加密技术可以应用于d/acc 主题领域:用于构建更强大和去中心化的金融、治理和社交媒体基础设施的Blockchain,用于保护隐私的零知识证明等。今天,许多最大的预测市场都建立在Blockchain上,并且它们正逐渐变得更加复杂、去中心化和民主。

在加密相关技术方面也有双赢的机会进行合作,这些技术对加密项目非常有用,但也是实现d/acc目标的关键:形式化验证、计算机软件和硬件安全以及对抗性强的治理技术。这些东西使EthereumBlockchain、钱包和DAO更加安全和强大,它们还实现了重要的文明防御目标,例如降低我们对网络攻击的脆弱性,包括可能来自超级智能AI的攻击。

pNOsDbt7hkpu7LFVKwAoTXjacYOw7Tn7iD6wDShP.png

但深度资助只是最新的例子;以前也曾有过其他公共物品资助机制的想法,未来还会有更多。allo.expert对它们进行了很好的分类。其根本目标是创建一个社会小工具,可以资助公共物品,其准确性、公平性和开放性至少接近市场资助私人物品的方式。它不必完美;毕竟,市场本身也远非完美。但它应该足够有效,以便致力于造福所有人的顶级开源项目的开发人员可以继续这样做,而不必感到有必要做出不可接受的妥协。

如今,大多数d/acc主题领域的领先项目:疫苗、BCI、腕部肌肉电信号和眼球追踪等“边缘BCI” 、抗衰老药物、硬件等,都是专有的。这在确保公众信任方面有很大的缺点,正如我们已经在上述许多 领域看到的那样。它还将注意力转移到竞争动态(“我们的团队必须赢得这个关键行业!”),而不是更大的竞争,即确保这些技术发展得足够快,以便在超级智能的AI世界中保护我们。出于这些原因,强大的公共物品资金可以有力地促进开放和自由。这是加密社区可以帮助d/acc的另一种方式:通过认真努力探索这些融资机制,并使它们在自己的环境中发挥良好作用,为更广泛地采用开源科学和技术做好准备。六、未来展望

vauiHZJjmomBuXSRnDAQdy4fkFXmqUdRb8cfF0Eg.png

获得工具意味着我们能够适应和改善我们的生物学和环境,而d/acc的“防御”部分意味着我们能够在不侵犯他人自由的情况下做到这一点。自由多元主义原则意味着我们可以在如何做到这一点方面拥有很大的多样性,而我们对共同的人类目标的承诺意味着它应该实现。

我们人类仍然是最耀眼的明星。我们面临的任务是建设一个更加光明的21世纪,在迈向星空的过程中保护人类的生存、自由和自主权,这是一个具有挑战性的任务。但我相信我们能做到。

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM