• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

Solana 上有哪些加密和 AI 交叉发展的潜在机会?

  • 2024年12月05日 02:40

作者:@knimkar 翻译:白话Blockchain

我们似乎正在进入AI与加密领域交汇处的用例实验寒武纪大爆发阶段。我对这股能量中涌现出的成果感到非常兴奋,并且想分享一下我们在@SolanaFndn看到的生态系统中一些令人振奋的新机会。1、简要概述

1)促进Solana上最具活力的代理驱动经济TruthTerminal首次展示了AI代理在能够进行链上互动时可能实现的成就。我们期待看到那些安全地突破代理在链上能力边界的实验。这个领域的潜力巨大,我们甚至还没有开始探索其中的设计空间。这里已经证明是加密与AI结合中最出乎意料且爆炸性的领域,且一切才刚刚开始。

2)让大型语言模型(LLM)在Solana代码编写方面表现得更加出色,赋能Solana开发者大型语言模型已经在编写代码方面表现得相当不错,而且它们将变得更加强大。我们希望利用这些能力让Solana开发者的工作效率提高2到10倍。短期内,我们将创建高质量的基准测试来衡量LLM理解Solana并编写Solana代码的能力(详见下文),这些测试将帮助我们了解LLM对Solana生态系统的潜在影响。我们期待支持那些在精细调整模型方面取得高质量进展的团队(我们会通过这些模型在基准测试中的优异表现来验证它们的质量!)。

3)支持开放和去中心化的AI技术栈我们所说的「开放和去中心化的AI技术栈」指的是能够促进访问以下资源的开放和去中心化协议:用于训练的数据、计算资源(用于训练和推理)、模型权重,以及验证模型输出的能力(「可验证计算」)。这个开放AI技术栈非常重要,因为它:

加速模型开发过程中的试验和创新

为那些可能被迫使用不可信AI(例如国家批准的AI)的人提供出路

我们希望支持在这一技术栈各层次上建设的团队和产品。如果你正在做与这些重点领域相关的工作,可以联系原文作者!2、详细概述

下面,我们将更详细地解释为什么我们对这三大支柱感到兴奋,以及我们希望看到哪些建设。

1)促进最具活力的代理驱动经济

为什么我们关注这一点?关于TruthTerminal和GOAT的讨论已经很多,我在这里就不再重复了,但可以明确说的是,当AI代理在链上互动时可能实现的种种疯狂功能,已经不可逆转地进入了现实(而且在这种情况下,代理甚至还没有直接在链上采取行动)。

还有一些以代理为核心的游戏,如@ParallelColony,在这些游戏中,玩家通过指令让代理采取行动,通常会产生意想不到的结果。

接下来可能发展的方向:

代理管理需要各方经济协调的多方面项目。例如,可以让代理承担像「找到一种能够治愈[X]疾病的化合物」这样复杂的任务。代理可以执行以下操作:

2)让LLM擅长编写Solana代码并赋能Solana开发者

为什么我们关注这一点?LLM已经具备强大的能力,并且在快速进步。但编写代码是LLM应用领域中,特别值得关注的一个方向,因为它是一个可以客观评估的任务。正如下面帖子中所解释的,「编程具有独特的优势:通过‘自我对弈’,可以实现超人级的数据扩展。模型可以编写代码,然后运行它,或者编写代码、编写测试并检查自我一致性。」

创建高质量的基准,以评估LLM对Solana的理解(RFP即将发布);

创建在上述基准中得分较高的LLM微调版本,更重要的是,加速Solana开发者的工作。一旦我们有了高质量的基准,我们可能会为第一个达到基准分数的模型提供奖励——敬请期待。

这里的最终成就将是完全由AI创建的高质量、差异化的Solana验证节点客户端。

3)支持开放和去中心化的AI技术栈

为什么我们关注这一点?目前尚不清楚在长期来看,AI领域的权力将如何在开源和闭源AI之间平衡。关于为何闭源实体将保持技术前沿,并从基础模型中捕获大部分价值,已有很好的论据。现在,最简单的预期是现状将持续——大型公司如OpenAI和Anthropic推动技术前沿,而开源模型将迅速跟进,并最终拥有针对某些用例的独特强大微调版本。我们希望Solana能够紧密对接,支持开源AI生态系统。具体而言,这意味着要促进对以下内容的访问:用于训练的数据、用于训练和推理的计算能力、结果模型的权重,以及验证模型输出的能力。我们认为这是重要的具体原因有:

A、开源模型有助于加速模型开发的调试和创新开源社区如何快速精炼和微调像Llama这样的开源模型,展示了社区如何有效地补充大型AI公司在推进AI能力前沿方面的努力(甚至Google的研究员去年也指出,关于开源「我们没有护城河,OpenAI也没有」)。我们认为,繁荣的开源AI技术栈对于加速该领域进步的速度至关重要。

B、为那些可能被迫使用他们不信任的AI(例如国家认可的AI)的人提供一个出口AI现在可能是独裁者或专制政权武器库中最强大的工具。国家认可的模型提供了一个国家认可的真相版本,并成为一种巨大的控制手段。高度专制的政权可能还会拥有更好的模型,因为它们愿意忽视公民的隐私来训练其AI。AI被用作控制工具的问题是何时发生,而不是是否发生,我们希望尽可能支持开源AI技术栈,为这种可能性做准备。

Solana已经是许多支持开源AI技术栈项目的家园:

Grass和SynesisOne正在促进数据收集;

@kuzco_xyz、@rendernetwork、@ionet、@theblessnetwork、@nosana_ai等正在提供大量的去中心化计算资源。

我们希望看到的的是在开源AI技术栈的各个层面上,更多产品的开发:

去中心化的数据收集,例如@getgrass_io、@usedatahive、@synesis_one

链上身份认证:包括允许钱包证明自己是人类身份的协议,以及验证AIAPI响应的协议,以便消费者能够确认他们正在与LLM进行互动

去中心化训练:例如@exolabs、@NousResearch和@PrimeIntellect

知识产权基础设施:让AI能够许可(并支付)它们所利用的内容

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM