怀疑 AI 代理背后是人?从发 Meme 币到全面 AI 化的必经之路
最近,我们在CryptoTwitter上见证了AI智能体代币和AImeme币的热潮。但这也引发了一个重要问题:
我们正生活在一个奇异的时代——一个我们努力想证明某物是AI而非人类的时代。想想看:我们花了几十年时间通过CAPTCHA和图灵测试来证明自己是人类,而现在却在做完全相反的事情。
随着每天涌现出越来越多的AI智能体,我们开始质疑,“等等,这真的是AI还是有人在假装?”这种局势的逆转既讽刺又引人入胜,尤其是当这些AI智能体越来越深入我们的日常数字生活时。
我们还注意到,Apple已经采用了一种区块链技术,以提升其AppleIntelligence的透明度。
什么是AI智能体?
简单来说,AI智能体是指具备工具和推理能力的人工智能。在加密货币领域,这些智能体可能能够访问推文、帖子,甚至拥有加密钱包来进行链上交易等操作。
这一切始于
AI智能体的独特之处在于它们具备以下能力:
对特定情境进行推理
制定行动计划
使用现有工具执行行动
根据结果进行调整
像Virtual的Luna的终端(
AI智能体的发展历程
实现真正透明的AI智能体需要遵循以下步骤:
开源代码
开放数据
去中心化推理
自主AI智能体
我认为,当前AI智能体的发展状态最多达到阶段3:开放推理。
阶段0:“请相信我,我是AI”
目前,大多数AI智能体项目仍处于这个阶段。用户与声称为AI智能体的系统互动,但无法验证:
回答是否源于真实的AI推理
实际的决策过程
是否有人工干预
这导致了“黑箱”问题,用户只能凭信任来接受AI的能力声明。
阶段1:开源代码
开源AI智能体代码是建立透明度和信任的关键一步。
通过开放代码,开发者可以审查和贡献项目,从而促进合作与创新。
阶段2:开放数据
示例1:
示例2:使用Chromia将大语言模型数据记录在链上
仅仅开源代码还不够,我们还需要确保智能体的“思维”过程是透明的。
这一关键阶段引入了智能体思维过程和决策的透明性。处于这一阶段的项目通常会:
开放其训练数据
提供智能体推理日志的访问权限
允许外部审计和验证
阶段3:去中心化推理
仅有开放数据并不足以确保真实的大语言模型推理。去中心化推理通过以下方式解决了这一问题:
使用zkML/opML验证模型执行
提供透明且可审计的推理过程
允许社区进行验证
阶段4:去中心化AI操作系统
最终的愿景是让自主AI智能体在一个透明的生态系统中运行。这包括:
独立的运行时或操作系统
智能体的加密钱包
自主决策能力
资源管理的全面可观察性
可审计的决策路
随着AI的能力和自主性不断增强,这种透明性变得尤为重要,使我们能够在各个层面理解和验证其行为。市场仍在探索如何实现这一目标。
正在进行的进展
我们刚刚起步,但已经出现了一些令人瞩目的项目:
$GOAT:打造AImeme文化社区
$LUNA:在区块链上创建AI智能体
$GMIKA:个性化AI伴侣
$CAI:通过opML运行去中心化AI网络
$AI16Z:用于AI基金的DAO
结论
我们正处于一场重大变革的开端。尽管Vitalik的文章完美地描绘了加密技术与AI的协同运作,但谁能想到,这种融合竟然从一个名为$GOAT的AImeme币开始?这一意想不到的开端展示了CryptoxAI的未来是多么不可预测和充满活力。