作者:@chenyangjamie, @GryphsisAcademy
- 生成式 AI 的商业应用在 2022 年风靡全球,但随着新鲜感褪去后,生成式 AI 当下的一些问题也逐渐显现。而逐渐成熟的 Web3 领域,凭借着区块链的全透明、可验证和去中心化的特性,为解决生成式 AI 问题提供了新的思路。
- 生成式 AI 是近年来的新兴技术,它基于深度学习的神经网络框架研发,用于图像生成的扩撒模型和用于 ChatGPT 的语言大模型均展现出巨大的商用潜力。
- Web3 中的生成式 AI 的实现架构包括基建、模型、应用和数据,其中数据部分在与Web3 结合时尤为重要,具有庞大的发展空间,特别是链上数据模型、AI 代理类项目和垂直领域应用有潜力成为未来的重点发展方向。
- 目前市场上的 Web3 中 AI 赛道的热门项目均显示出了基本面不足,代币价值捕获能力弱等特性,未来主要期待新的热度或者代币经济的更新。
- 生成式 AI 在 Web3 领域有着巨大潜力,未来有着不少和其他软硬件技术结合的新的叙事值得期待。
2022 年可以称得上是生成式 AI(Artificial Intelligence)风靡世界的年份,在此之前的生成式 AI 还只是局限在专业工作者的辅助工具,而在 Dalle-2,Stable Diffusion,Imagen,Midjourney 接连出世之后,人工智能生成内容(AI-Generated Content,简称 AIGC)作为最新潮的科技应用,在社交媒体上产生了一大波潮流内容。而紧随其后发布的 ChatGPT 更是一枚重磅炸弹,将这股风潮推向了最顶点。作为第一个只需要简单文字指令(即 prompt)的输入,就可以回答几乎所有问题的 AI工具,ChatGPT 早已成为了许多人的日常工作助手。它可以胜任文件写作、作业辅导、邮件助手、论文修改、甚至情感导师等等的多样化日常任务,网络上更是热情高涨地研究各种用来优化 ChatGPT 生成结果的神秘 prompt,人们第一次可以感受到人工智能的“智能”所在。根据高盛的宏观团队的报告,生成式 AI 可以成为美国劳动生产力增长的助推器,在生成式 AI 发展的10年内,可以在 10 年内推动全球 GDP 增长 7%(或近 7 万亿美元),并将生产力增长率提高 1.5 个百分点。

然而在最初的新鲜感逐渐褪去之后,ChatGPT 的全球流量自发布以来,在 2023 年 6 月首次出现下降(数据来源:SimilarWeb),也正是时候来重新思考生成式AI带来的的意义以及其局限性。从目前的情况看来,生成式 AI 遇到的困境包括(但不限于):首先是社交媒体充斥着未经许可且无从溯源的 AIGC 内容;再者 ChatGPT 的高额维护费用更是迫使 OpenAI 也不得不选择降低生成质量来降本增效;最后是即使是世界范围的大模型,仍在某些方面的生成结果中存在偏见。

与此同时,逐渐迈向成熟 Web3 以其去中心化、全透明以及可验证的特性,为解决生成式 AI 当前的困境提供了新的结题思路:
A. Web3 的全透明性和可溯源性,可以解决生成式 AI 带来的数据的版权和隐私方面的挑战。Web3 的这两个特性,可以使得内容的来源和真实性能够被有效验证,从而显著提高了AI 生成虚假或侵权内容的成本,比如版权混乱的混音短视频或侵犯他人隐私的 DeepFake 换脸视频。此外,智能合约在内容管理中的应用有望解决版权问题,确保内容创作者能够从他们的创作内容中获得较为公平报酬。

B. Web3 的去中心化特性可以降低 AI 算力的中心化风险。研发生成式 AI 需要巨量的计算资源,据估计训练一次基于 GPT-3 的 ChatGPT 成本至少在 200 万美元以上,同时每天电费需要约 4.7 万美元,并且这个数字会随着技术和规模的发展指数级上升。目前计算资源仍大量集中在大型公司手中,这导致了巨大的研发、维护和运营成本,同时也存在集中化风险,使得小型公司难以与其竞争。尽管短期内大模型的训练可能仍然需要在中心化环境中进行,因为大型模型的训练需要大量计算资源,但在 Web3 中,区块链技术使得分布式模型推理、社区投票治理以及模型的代币化等等变得可能。以现有的去中心化交易所为成熟案例,我们可以设计社区驱动的去中心化 AI 大模型推理系统,其中大型模型的所有权归属于社区,并由社区进行治理。

C. 利用 Web3 的特性可以优化 AI 数据集的多样性和 AI 模型的可解释性。传统方式数据收集基本基于公开数据集或者模型制作方自行收集,收集到的数据往往受到地域和文化的限制。这可能导致 AIGC 程序产生的内容和 ChatGPT 生成的答案带有某些族群的主观偏见,比如改变目标任务的肤色。而通过 Web3 的代币激励模式,我们可以优化数据收集方式,从世界各个角落收集数据并赋予权重。同时 Web3 的全透明且可溯源可以进一步增加模型的可解释性,鼓励多样化背景的输出以丰富模型。

D. 可以利用 Web3 海量的链上数据训练独有AI模型。目前 AI 模型的设计和训练方法往往是针对目标数据结构(文字、语音、图像或者视频)构造。Web3 和 AI 结合的一个独特的未来发展方向,是参考自然语言大模型的构建和训练方法,利用 Web3 链上数据独有的数据结构,建立链上数据大模型。这样可以为用户提供其他数据分析无法触及的独特视角(聪明钱追踪,项目资金走向等等),同时相比于人工链上分析,AI有着可以并发处理巨量数据的优势。

E. 生成式 AI 有望成为降低人们参与 Web3 世界的门槛的有力助力。当下Web3的项目主流参与模式需要参与者对于各种复杂链上概念和钱包操作逻辑有相当的了解,这大大增加了用户的学习成本和误操作风险,而反观 Web2 中的同类的应用则是已经将产品设计的““懒人原则”的原则贯彻多年,使得用户可以轻松且无风险上手。生成式 AI 有望助力 intent-centric 类项目,通过在 Web3 中充当用户和协议间的“智能助手”,使得Web3 产品的用户体验大幅提升。

F. Web3 还创造了巨大的内容需求,而生成式 AI 则成为填充这一需求的关键手段。生成式 AI 可以为 Web3 创造大量的文章、图像、音频和视频内容,驱动去中心化应用的发展,从 NFT 市场到智能合约的文档,都可以受益于 AI 生成的多样化内容。
虽然生成式 AI 和 Web3 各自存在挑战,但它们的互相需求和协同解决方案将有望塑造数字世界的未来。这种协作将提高内容创造的质量和可信度,推动数字生态系统的进一步发展,同时为用户提供更有价值的数字体验。生成式 AI 和 Web3 的共同演进将在数字时代绘制出令人兴奋的新篇章。
自从 20 世纪 50 年代 AI 的概念被提出以来,已经经历过数次上升潮和低谷期,每次关键技术的革新都会带新的一波浪潮,这次的生成式 AI 也不例外。生成式 AI 作为近 10 年间才被提出的新兴概念,凭借近期的技术和产品的耀眼表现,从 AI 的众多研究子方向中脱颖而出,并一夜之间吸引了全世界关注的目光。在我们更进一步的深入生成式 AI 的技术构架之前,我们需要首先说明本文中讨论的生成式 AI 的具体含义,并简单回顾一下近期爆火的生成式 AI 的核心技术组成。
生成式人工智能是一种可用于创建新的内容和想法(包括对话、故事、图像、视频和音乐)的人工智能,是基于深度学习的神经网络框架建立的、使用大量数据进行训练的,含有巨量参数的模型。近期走入人们视线的生成式 AI 产品简单来分可以分为两类:一类是文字或风格输入的图像(视频)生成类产品,另一类是文字输入的 ChatGPT 类产品。这两类产品其实用到了同样的的核心技术,即是基于 Transformer 架构的预训练语言大模型(Large Language Model,LLM)。在此基础上,前一类产品加上了结合文字输入生成高质量图像或视频的扩散模型(Diffusion Model),后一类产品则是加入了基于人工反馈的强化学习训练(Reinforcement Learning from Human Feedback,RLHF),以达到输出结果接近人类的逻辑水平。
很多过往的优秀文章都从不同角度讨论过了生成式 AI 对已有技术构架的意义,比如这篇来自A16z 的文章《谁拥有生成式 AI 平台?》,其中全面总结了生成式AI目前的技术构架:

这篇研究文章中将当下 Web2 生成式 AI 的构架分为三个层次:基建(算力),模型和应用,同时给出了对于这三个层次目前发展的看法。
对于基建,虽然目前仍以 Web2 中基建的逻辑为主,真正针对 Web3 同AI结合的基建项目仍寥寥可数。同时基建也是目前阶段捕获了最多价值的部分,Web2 的科技寡头们凭借着在存储和计算领域深耕数十年,通过在目前的 AI 探索阶段“卖铲子”获得了可观的收益。
对于模型,本应是 AI 真正的创造者和所有者,然而在目前阶段能够支持模型的作者们获得对应的商业价值的商业模型还少之又少。
对于应用,几个垂直领域虽然已经积累超过了上亿美元收入的应用,然而高昂的维护费用和较低的用户留存度不足以支撑起长期的商业模式。
2.3.1 应用 AI 分析 Web3 的海量数据
数据在未来 AI 发展领域是建立技术壁垒的核心。为了理解其重要性,我们先来看一项关于大模型性能来源的研究。这项研究表明,AI 大模型展现出一种独特的涌现能力:即通过不断增加模型规模,当超过某个阈值时,模型精度会突然暴增。如下图所示,每张图代表一个训练任务,每条折线达标一个大模型的性能(准确率)。各种不同的大模型上的实验均获得了一致的结论:模型规模超过一定阈值之后,在不同任务上的性能都表现出突破式增长。

简单来说,模型的规模量变引起模型性能的质变。而这其中的模型规模是和模型参数数量、训练时长和训练数据质量有关。现阶段在模型参数数量(各大公司都有顶尖研发团队负责设计)、训练时长(计算硬件都买英伟达的)拉不开差距的情况下,想要打造一款领先对手的产品,一条路是找到绝佳的细分领域需求痛点打造杀手应用,但是这要求对目标领域有着深刻理解和绝佳洞察力;而另一条路更为实际可行,即是收集比竞争者更多更全面的数据。
这也为生成式 AI 大模型进入 Web3 领域找到了一个不错的切入点。现有的 AI 大模型或者基础模型均是基于不同领域的巨量数据训练而来,而 Web3 中链上数据的独特性使得链上数据大模型成为值得期待的可行路径。在 Web3 中数据层级目前有两种产品逻辑:第一种是为数据提供者提供激励,保护数据所有者的隐私和所有权的同时,鼓励用户互相分享数据的使用权。Ocean Protocol 提供了一个很好数据分享模式。第二种是由项目方集成数据和应用,为用户提供针对某项任务的服务。比如 Trusta Lab 收集并分析用户的链上数据,通过独有的 MEDIA score 评分系统,可以提供女巫账号分析、链上资产风险分析等服务。
2.3.2 Web3 的 AI 代理应用
还有前文提到的链上 AI Agent 应用也是风头正劲 - 在语言大模型的助力下,以保证用户隐私为前提,为用户提供可量化的链上服务。根据来自 OpenAI 人工智能研究主管 Lilian Weng 的博文,可以将 AI Agent 分为四个组成部分,即 Agent = LLM + Planning + Memory + Tool use。LLM 作为 AI Agent 的核心,负责与外界的交互,学习海量数据并用自然语言合乎逻辑的表达。而 Planning + Memory 部分,则类似于训练 AlphaGo 的强化学习技术中的 action, policy and reward 的概念。将任务目标拆解为各个小目标,分步骤在多次的重复训练的结果和反馈中学习到某个任务目标的优化的解法,同时将获得的信息储分不同功用储存在不同类型 memory 中。至于 Tool use,指的是 agent 对于诸如调用模块化工具,检索互联网信息,接入专有信息源或 API,等等工具的使用,值得注意的是这部分信息大多在预训练之后会很难更改。

结合 AI Agent 的具体实现逻辑,我们可以大胆畅想 Web3 + AI Agent 的组合会带来无限的想象空间,比如:
- 在目前的交易应用中可以加入 AI Agent 的模式,可以为客户提供自然语言等级的交互界面,进行包括但不限于价格预测、成交策略、止损策略、杠杆动态调整、KOL 智能跟单、借贷等的交易功能。
- 在执行量化策略时,可以进一步的将策略分解成各个子任务交由不同 AI Agent 实施,各个 AI Agent 之间互相协作,这样既可以提高隐私保护的安全性,又可以实时监控防止对手方利用漏洞反撸机器人。
- 链游中的大量 NPC 也是和 AI Agent 天然契合的应用方向,现在已经有了将 GPT 应用于动态生成游戏角色对话内容的项目,而未来更有望不仅仅局限于预设文本,而升级为更加真实的实时游戏 NPC(甚至数字人)互动,可以实现不涉及玩家干预的情况下自行交互。斯坦福大学发布的“虚拟小镇”就是极佳的应用范例。
虽然在目前 Web3 + AI Agent 项目中心仍集中在一级市场或者AI基建一侧,仍未有 To C 的杀手级应用出现,但是相信在结合了区块链的各种特性,诸如分布式链上治理,零知识证明推理,模型分发,可解释性提升等等,未来改变游戏规则的 Web3 + AI 项目值得期待。
2.3.3 Web3 + AI 的潜在垂直领域应用
A. 教育领域应用
在 Web3 和 AI 的结合中,教育领域迎来了一场变革,其中生成式的虚拟现实课堂是一项引人注目的创新。通过将 AI 技术嵌入在线学习平台,学生可以获得个性化的学习体验,系统根据学生的学习历史和兴趣生成定制的教育内容。这种个性化方法有望提高学生的学习动力和效果,使教育更加贴近个体需求。

此外,代币模型学分激励也是教育领域的一项创新实践。通过区块链技术,学生的学分和成就可以被编码成代币,形成数字化的学分体系。这样的激励机制鼓励学生积极参与学习活动,创造了更具参与性和激励性的学习环境。
同时受到近期大火的 SocialFi 项目 FriendTech 的启发,类似的绑定ID的 key 定价逻辑也可以用来建立一个同学间的互评系统,这也为教育带来了更多社交元素。通过借助区块链的不可篡改性,同学之间的评价更加公正和透明。这种互评机制不仅有助于培养学生的团队协作能力和社交能力,还能够提供更全面、多角度的学生表现评估,为教育体系引入更多多样性和综合性的评价方式。
B. 医疗领域应用
在医疗领域,Web3 和 AI 的结合推动了联邦学习和分布式推理的发展。通过联合分布式计算和机器学习,医疗专业人员可以在极大范围内共享数据,进行更深入、全面的群体学习。这种集体智慧的方法可以加速疾病诊断和治疗方案的研发,推动医学领域的进步。
隐私保护是医疗领域应用中也不可忽视的一个关键问题。通过 Web3 的去中心化和区块链的不可篡改性,患者的医疗数据可以更安全地存储和传输。智能合约可以实现对医疗数据的精确控制和权限管理,确保只有经过授权的人员能够访问患者的敏感信息,从而维护了医疗数据的隐私性。
C. 保险领域应用
在保险领域,Web3 和 AI 的整合有望为传统业务带来了更高效和智能的解决方案。比如在汽车和房屋保险中,计算机视觉技术的运用使得保险公司能够通过图像分析和估价,更高效地评估财产价值和风险水平。这为保险公司提供了更精细化、个性化的定价策略,提高了保险行业的风险管理水平。

与此同时,链上自动理赔也是保险行业的一项创新。基于智能合约和区块链技术,理赔过程可以更加透明、高效,减少了繁琐的手续和人为干预的可能性。这不仅提高了理赔的速度,也降低了操作成本,为保险公司和客户带来了更好的体验。
动态保费调整是另一方面的创新实践,通过实时的数据分析和机器学习算法,保险公司能够更精准且及时地调整保费,根据被保险人的实际风险状况进行个性化定价。这不仅使保费更加公平,也激励被保险人采取更健康、安全的行为,促进了整个社会的风险管理和预防措施。
D. 版权领域应用
在版权领域,Web3 和 AI 的结合为数字内容创作、策划提案和代码开发带来了全新的范式。通过智能合约和去中心化的存储,数字内容的版权信息可以得到更好的保护,作品的创作者能够更容易地追踪和管理其知识产权。同时,通过区块链技术,可以建立透明、不可篡改的创作记录,为作品的溯源和认证提供了更加可靠的手段。
工作模式创新也是版权领域的一项重要变革。代币激励式工作协同通过将工作贡献与代币激励相结合,鼓励创作者、策划者和开发者共同参与项目。这不仅推动了创作团队之间的协同合作,还为参与者提供了直接从项目成功中受益的机会,促使更多优秀的作品涌现。
另一方面,代币作为版权证明的应用重塑了利益分配的模式。通过智能合约自动执行的分红机制,作品的各个参与者可以在作品被使用、销售或转让时,实时获得相应的利润份额。这种去中心化的分红模式有效解决了传统版权模式中的不透明和滞后问题,为创作者提供更公平、高效的利益分配机制。
E. 元宇宙领域应用
在元宇宙领域,Web3和AI的整合为创造低成本的 AIGC 填充链游内容提供了新的可能。通过 AI 算法生成的虚拟环境和角色能够丰富链游的内容,为用户提供更为生动、多样的游戏体验,同时减少了制作过程中的人力和时间成本。
数字人制作是元宇宙应用中的一项创新。结合细致到毛发的外表生成和基于语言大模型的思维构建,生成的数字人可以在元宇宙中扮演各种角色,与用户互动,甚至参与现实场景的数字孪生。这为虚拟现实的发展提供了更加真实和深刻的体验,推动了数字虚拟人技术在娱乐、教育和其他领域的广泛应用。
按照链上用户画像自动生成广告内容是元宇宙领域中一项智能化的广告创意应用。通过对用户在元宇宙中的行为和喜好进行分析,AI算法可以生成更具个性化和吸引力的广告内容,提高广告的点击率和用户参与度。这种广告生成方式不仅更符合用户兴趣,也为广告主提供了更高效的推广途径。
生成式互动 NFT 是元宇宙领域中一项引人注目的技术。通过将 NFT 与生成式设计相结合,用户可以在元宇宙中参与创作自己的 NFT 艺术品,赋予其互动性和独特性。这为数字资产的创作和交易提供了全新的可能性,推动了元宇宙中的数字艺术和虚拟经济的发展。
这里笔者选择了五个项目,Render Network 和 Akash Network 作为通用 AI 基建和 AI 赛道老牌龙头,Bittensor 作为模型类别的爆款项目,Alethea.ai 作为生成式 AI 强相关应用项目,Fetch.ai 作为 AI 代理领域的标志项目,来一窥生成式 AI 项目现在在 Web3 领域的现状。
Render Network 是由其母公司 OTOY 公司的创始人 Jules Urbach 于 2017 年创立。OTOY 公司的核心业务是云上图形渲染,其曾参与制作过荣获奥斯卡奖的影视项目,有谷歌和Mozilla 联合创始人作为顾问,并多次参与过与 Apple 合作的项目。而由 OTOY 延伸入 Web3领域的 Render Network,其创立目的是为了利用区块链技术的分布式特性,连接较小规模的渲染和AI需求与资源的去中心化平台,从而为小作坊省下租赁昂贵的中心化计算资源(比如AWS,MS Azure 和 阿里云)的费用,同时也为有闲置计算资源的一方提供了创收。
由于Render 是自主研发了高性能渲染器 Octane Render 的 OTOY 公司,加上确定的商业逻辑,所以上线之初就被认为是自带需求和基本面的 Web3 项目。在生成式 AI 风靡的这段时间里,需求大幅增长的分布式验证和分布式推理任务完美契合 Render 本身技术架构,也被认为是其未来值得期待的发展方向之一。同时 Render 近些年常年占据 Web3 领域 AI 赛道的龙头位置,已经衍生出了一定程度的 meme 性质,每次有 AI、元宇宙、分布式计算等叙事热潮时总能吃到上涨红利,可谓是较为全能了。
Render Network 在 2023 年 2 月宣布了即将更新新的定价分级制度和由社区投票选出的$RNDR的价格稳定机制(然而还未确定何时上线),并同时宣布项目将由 Polygon 转移至Solana(同时将 $RNDR 代币升级为基于 Solana SPL 标准的 $RENDER 代币,目前项目已经于 2023 年 11 月完成转移)。
Render Network 发布的新的定价分级制度将链上的服务分为了三个档次,由高至低分别对应不同价位和质量的渲染服务,可以由渲染需求方自行选择。

而由社区投票选出的 $RNDR 的价格稳定机制,是从之前的不定期回购,改为了使用 “Burn-and-Mint Equilibrium (BME)” 模式,使得 $RNDR 作为价格稳定支付代币,而不是长期持有资产的定位更加明显。在一个 BME Epoch 中具体的业务流程如下图所示:
- 产品生成 “Product Creation”。Render 上的产品创造者 “Product creators”,也即是渲染资源提供者,他们将闲置渲染资源打包成产品(节点),在网络上线等待被使用;
- 购买产品 “Purchasing Product” 。有渲染需求的客户如果有 $RNDR token 则直接 burn token 作为支付服务的费用,如果没有则先在 DEX 用法币购买 $RNDR 之后 burn token。为服务支付的价格会被公开记录在链上。
- 铸造代币 “Mint Token”。按照提前预设的规则,分配新的 token。
Note: Render Network 会从每一笔交易中收取产品购买者支付费用的 5% 用以项目运营。

按照提前预设的规则,在 BME 执行的每个 Epoch 中,会有预设数量的新代币被铸造(预设数量会随着时间推移而逐渐减少)。新铸造的代币将会分配给三方:
- 产品创造者。产品创造者按照两个方面获得:
- 完成任务奖励。按照每个产品节点完成渲染任务的数量进行奖励,很好理解。
- 在线奖励。按照每个产品节点在线上待命的市场进行奖励,鼓励限制资源多在线上接活。
- 产品购买者。类似商场产品返券,购买者可以获得比例有机会高达 100% 的 $RNDR 代币返还,鼓励未来继续使用 Render Network。
- DEX(Decentralized Exchange)流动性提供者。在合作 DEX 中的流动性提供者,因为确保了在需要 burn $RNDR 时能以合理价格购买到足够数量的 $RNDR,可以按照质押 $RNDR 的多少获得奖励。

从 $RNDR 近一年的价格趋势中可以看到,作为 Web3 中多年 AI 赛道的龙头项目,$RNDR 吃到了 ChatGPT 在 2022 年末 2023 年初带动的一波AI热潮的红利,同时随着新的代币机制的发布,$RNDR 的价格在 2023 年上半年达到了一个高点。在横盘了下半年之后,随着 OpenAI 新发布会带来的 AI 回暖,和 Render Network 迁移至 Solana 以及新的代币机制即将实装的利好预期,$RNDR 的价格更上一层,来到了近年来的一个最高点。由于 $RNDR 基本面的变化微乎其微,对于投资者而言,未来 $RNDR 的投资需要更加谨慎的进行仓位管理和风险管控。


同时从 Dune 数据看板可以看到,自 2023 年年初以来,总的渲染任务数量增加,但是渲染节点并没有增加。说明增加的用户都是有渲染需求的用户(而非有渲染资源的),结合 2022 年末的生成式 AI 热潮,合理推断增加的渲染任务都是生成式 AI 相关的任务。目前还很难说这部分需求是否是长期需求,还需要后续观察。
Akash Network 是一个去中心化的云计算平台,旨在提供开发者和企业一个更加灵活、高效和经济的云计算解决方案。该项目建立的“超级云”平台建立在分布式区块链技术之上,利用区块链的去中心化特性,为用户提供了一个可以在全球范围内部署和运行应用程序的去中心化云基础设施,其中包括 CPU,GPU 和存储在内的多样化计算资源。
Akash Network 的创始人 Greg Osuri 和 Adam Bozanich 是合作多年的连续创业者,各自有着多年的项目经验,他们曾一起创立了目前仍是 Akash Network 核心参与者的 Overclock Labs 项目。丰富的经验使得创始团队对于 Akash Network 的主要使命设定清晰,即是降低云计算成本,提高可用性,并增加用户对计算资源的控制。通过公开竞价的方式,激励资源提供方开放其网络中的空闲计算资源,Akash Network 实现了资源的更有效利用,从而为资源需求方提供了更具竞争力的价格。
Akash Network 在 2023 年 01 月开始了 Akash Network Economics 2.0更新计划,目标是解决当前代币经济的诸多缺陷,包括:
- $AKT 代币的市场价格波动导致长期合约的价格与价值不符
- 对于资源提供者的激励不足以释放其手中的大额算力
- 社区激励不足不利于Akash项目的长期发展
- $AKT 代币的价值捕获不足有影响项目稳定的风险
根据官网提供的信息,Akash Network Economics 2.0 计划提出的解决方案包括引入稳定币支付,加收挂单吃蛋手续费增加协议收入,增加资源提供方的激励并提高社区激励的额度等等,其中 稳定币支付功能 和 挂单吃单手续费功能 已经上线实装。
作为 Akash Network 的原生代币 $AKT,其在协议中肩负包含质押验证(安全性)、激励、网络治理和支付交易费用等多种用途。据官网上提供的数据,$AKT 的供应总量额为 388M,截止至 2023 年 11 月,目前已经解锁 229M,占比约 59%。在项目启动时分发的创始代币已经在 2023 年 3 月完成全部解锁,进入二级市场流通。创世代币的分配比例如下:

值得关注的是,在价值捕获方面,$AKT 拟实施的一项尚未生效但在白皮书中提及的功能是,Akash 计划对每一次成功的租赁收取“收取费用”。随后,它将这些费用发送至 Take Income Pool,以便分配给持有人。该计划规定对 $AKT 交易收取 10% 的手续费,而对使用其他加密货币的交易则收取 20% 的手续费。此外,Akash 还计划奖励那些锁定其 $AKT 持股时间较长的持有人。因此,持有时间更长的投资者将有资格获得更丰厚的奖励。如果此项计划在未来顺利上线,必将成为币价上涨的一大驱动力,同时也有助于更好的估计项目价值。

由 coingecko.com 上显示的价格趋势可以看出,$AKT 的价格在 2023 年 8 月中旬和 11 月下旬也分别迎来一次上涨,但仍不如AI赛道中其他项目的同期涨幅,这可能和当下的资金情绪倾向有关。总体来看,Akash 的项目作为 AI 赛道的几个优质项目之一,基本面优于绝大多数 AI 赛道的竞争者。其潜在业务收入有可能为协议未来盈利带来机会,随着 AI 产业的发展和对于云计算资源的愈演愈烈,相信在未来有望看到 Akash Network 在下一个 AI 大浪潮中扶摇直上。
如果读者对于 $BTC 的技术构架熟悉的话,理解 Bittensor 的设计会非常容易。事实上,在设计 Bittensor 时,其作者就借鉴了许多 $BTC 这位加密货币元老的特质,包括:代币总量 2100 万枚,约每四年进行一次产量减半,涉及 PoW 的共识机制,等等。具体来说,让我们一起想象一个初始的比特币产出流程,然后将其中无法创造现实价值的“挖矿”计算随机数的过程替代为训练和验证 AI 模型,并根据AI模型的性能和可靠程度对矿工的工作进行激励,这就是 Bittensor($TAO)的项目构架的简单总结。
Bittensor 项目最早是由两位 AI 研究员 Jacob Steeves 和 Ala Shaabana 建立于 2019 年,其主要框架基于一位神秘作者 Yuma Rao 所撰写的白皮书内容。简单总结,它设计了一个无需许可的开源协议,构建了一个由许多子网网络连接而成的网络构架,由不同子网负责不同任务(机器翻译,图像识别与生成,语言大模型,等等),优秀的任务完成将获得激励,同时允许子网之间互相交互与学习。
回顾一下目前市面上的 AI 大模型,无一例外均是源自于科技巨头投入的巨量计算资源与数据。诚然如此方式训练的 AI 产品有着让人惊艳的表现,但是如此形式也带来了极高的集中化作恶风险。Bittensor 基础构架设计允许可以通讯的专家网络互相通信与学习,这为大型模型的去中心化的训练打下了基础。Bittensor 的长期愿景是同 OpenAI,Meta,Google 等巨头的闭源模型竞争,在维持模型去中心化特性的同时,以期能达到相匹配的推理性能。
Bittensor网络的技术核心来自于 Yuma Rao 独特设计的共识机制,也被称为Yuma共识,这是一种混合了 PoW 与 PoS 的共识机制。其中供给侧主要参与者分为 “Server”(即矿工)与“Validator”(即验证者),需求侧的参与者则是使用网络中模型的 “Client”(即客户)。其中矿工负责提供针对当前子网任务的预训练模型,获得的激励取决于提供模型的质量;而验证者负责验证模型性能,并在矿工和客户之前见充当中间人。具体流程是:

- 客户发送使用某个子网中模型的需求和需要计算的数据给验证者
- 验证者分配数据给该子网下的各个矿工
- 矿工利用自有模型和接受的数据进行模型推理后返回结果
- 验证者对接收到的推理结果按照质量进行排序,排序结果储存在链上
- 最优的推理结果被返回到用户手中,矿工按照排序,验证者按照工作量获得激励
需要注意的是,在绝大多数子网中,Bittensor 本身并不训练任何模型,其发挥的作用更像是链接模型提供者与模型需求者,并在此基础上更进一步的利用小模型之间的互相作用提升在不同任务中的性能。目前已经上线(或曾经在线)的子网已经达到 30 个,分别对应不同的任务模型。

$TAO 作为 Bittensor 的原生代币,作用包括创建子网,在子网中注册,支付服务,向验证者质押等等,在生态系统中发挥着举足轻重的作用。同时由于 Bittensor 项目方致敬 BTC 精神的做法,$TAO 选择了公平启动,即所有代币都会通过在网络中做出贡献产生。目前,$TAO 的每日产出约为 7200 个,平均分配给矿工和验证者。自项目启动始已经产出的总量约为 2100 万的约 26.3%,其中 87.21% 的代币被用于质押与验证。同时项目设计了约 4 年一次的产量减半(和 BTC 相同),最近的一次会发生在 2025 年 9 月 20 日,这也将是驱动价格上涨的一大动力。


由价格趋势可以看到 $TAO 的价格从 2023 年 10 月末起经历了一次大幅上涨,推测其中主要推动力是包括 OpenAI 的发布会带来的新一轮 AI 热潮,使得资金板块轮动到 AI 板块。同时 $TAO 作为 Web3 + AI 赛道的新兴项目,其优秀的项目质量和长远的项目愿景也是吸引到资金进入的一大原因。然而不得不承认,同其他 AI 赛道的项目一样,虽然 Web3 + AI 的组合潜力巨大,然而其在实际业务中的应用还不足以支撑起一个长期盈利的项目。
Alethea.ai 成立于 2020 年,是一家致力于利用区块链技术给生成式内容带来去中心化所有权和去中心化治理的项目。Alethea.ai 的创始人认为生成式 AI 会将我们代入一个由生成式内容导致信息冗余的时代,大量电子化的内容只需要简单的复制粘贴或者一键生成,而最初创造价值的人却无法收益。而通过将链上原语(比如 NFT )与生成式 AI 连接,可以确保生成式 AI 及其内容的所有权,并在此基础上进行社区治理。
在这个理念的推动下,早期 Alethea.ai 推出了一个新的 NFT 标准,即 iNFT,利用 Intelligence Pod 可以向图像创建嵌入 AI 动画、语音合成甚至生成式 AI。此外Alethea.ai还和艺术家达成合作,将其艺术作品制成 iNFT,并在苏富比拍卖出了 47 万 8 千美元的高价。

之后 Alethea.ai 推出了AI Protocol,这个协议允许任何生成式AI的开发人员和创作者都可以无需许可的利用 iNFT 标准进行创作。与此同时,为了给其他项目在自家 AI Protocol 上打个样,Alethea.ai 还借鉴 GPT 大模型的理论推出了制作可互动的 NFT 的工具 CharacterGPT。更进一步的,Alethea.ai 还在最近发布了 Open Fusion,使得市面上任何 ERC-721 NFT 都可以和一个 Intelligence 结合并被发布到 AI Protocol 上。
Alethea.ai 的原生代币是 $ALI,其主要用途有四个:
- 锁定一定数量的 $ALI 以创作 iNFT
- 锁定的越多,Intelligence Pod 的等级越高
- $ALI 持有者参与社区治理
- $ALI 可以作为参与 iNFT 之间互动的凭证(还没有实际用例)

从 $ALI 的用例可以看出,目前此代币的价值捕获还停留在叙事层面,从一年内的币价变化也可以印证这个推论:$ALI 吃到了从 2022 年十二月开始的 ChatGPT 引领的生成式 AI 热潮红利。同时在今年六月,Alethea.ai 公布上线最新的 Open Fusion 功能时,也带了一波上涨。除此而外,$ALI 的价格一直处于下降趋势,连 2023 年末的 AI 热潮也未能驱动价格上升程度至同赛道项目上涨的平均水平。
除了原生代币,我们再来看看 NFT 项目的表现,Alethea.ai 的 iNFT(包括官方发布的collection)在 NFT 市场上的的表现。


从 Dune 看板统计的数据我们可以看到,无论是出售给第三方的 Intelligence Pod,还是Alethea.ai 第一方发行的 Revenants collection,都在初始发行一段时间后逐渐销声匿迹。这其中的主要原因,笔者认为应该还是最初的新鲜感退去之后,没有实际价值或者社区热度留存用户的缘故。
Fetch.ai 是一家致力于推动人工智能和区块链技术相互融合的项目。该公司的目标是构建一个去中心化的智能经济体,通过结合机器学习、区块链和分布式账本技术,为智能代理之间的经济活动提供支持。
Fetch.ai 是由来自英国的科学家 Humayun Sheikh、Toby Simpson 和 Thomas Hain 于 2019 年创立。这三位创始人的背景非常丰富,其中 Humayun Sheikh 是 Deepmind 的早期投资人,Toby Simpson 曾担任数家公司的高管,Thomas Hain 则是谢菲尔德大学人工智能方向的教授。Fetch.ai 创始团队的深厚背景为公司带来了丰富的业界资源,涵盖了传统IT企业、区块链明星项目、医疗和超算项目等多个领域。
Fetch.ai 的使命是建立一个由自主经济代理和 AI 应用组成的去中心化网络平台,使开发者能够通过创建自主代理完成预设目标任务。该平台的核心技术是其独特的三层架构:
- 底层:基于 PoS-uD(即无需许可的权益证明共识机制)的底层智能合约网络,支持矿工间协作和基本的机器学习训练与推理
- 中层:OEF(Open Economic Framework,开放经济框架),提供了一个供 AEA 之间互相交互的共享空间,允许 AEA 与底层协议间互动,也支持 AEA 之间互相搜索、发现和交易
- 上层:AEA(Autonomous Economic Agent,自治经济代理人),是 Fetch.ai 的核心部件。每个 AEA 是一个智能代理软件,能够通过各种技能模块实现不同功能,代表用户完成事先设定的任务。该代理软件并非在区块链上直接运行,而是通过中间层 OEF 与区块链和智能合约进行交互。这种智能代理软件可以是纯软件,也可以与实际硬件,如手机、电脑、汽车等,进行绑定。官方提供了一个基于 Python 的开发套件,即 AEA 框架,该框架具备可组合性,使开发者能够用它构建自己的智能代理软件。
在此架构的基础上,Fetch.ai 还推出了多项后续产品和服务,如 Co-Learn(代理间的共享机器学习模型)和 Metaverse(智能代理云hosting服务),以支持用户在其平台上开发自己的智能代理。
代币方面,$FET 作为 Fetch.ai 的原生代币,覆盖了网络内支付 Gas、质押验证和购买服务的常规作用。$FET 目前已经解锁了超过 90% 的代币,具体分配如下:

从项目启动以来,Fetch.ai 已经以稀释代币持有的方式接受过多轮融资,最近一次是 2023 年 3 月 29 日,Fetch.ai 接受了来自 DWF Lab 3000 万美元的融资。由于 $FET 代币并没有项目收入方面的价值捕获,所以价格提升的驱动力主要还是来自于项目更新和市场对于 AI 赛道的情绪。可以看到,借着 AI 板块的两次热度,Fetch.ai 的价格在 2023 年初和 2023 年底均有一次超过 100% 的价格飙升。

比起其他区块链项目发展和获取关注的方式,Fetch.ai 的发展路径更像是 Web2.0 的 AI 创业项目,专注在技术层面的打磨,通过不断的融资和广泛的合作打响名气并寻找赢利点。这种做法为未来准备基于 Fetch.ai 开发的应用留下了广阔的发展空间,但是发展模式也使得其本身对其他区块链项目的吸引力不高,从而无法激活生态活力(Fetch.ai 的创始人之一曾亲自建立基于 Fetch.ai 的 DEX 项目 Mettalex DEX,最后也不了了之)。作为一个偏向于基础设施类型的项目,由于生态的凋零,也使得 Fetch.ai 项目内在价值难以提升。
英伟达 CEO 黄仁勋将生成式大模型的发布称为 AI 的 “iPhone” 时刻,而现阶段生产 AI 的稀缺资源就是以高性能计算芯片为中心的基础设施。AI 基建类项目作为目前在Web3中锁定资金最多的 AI 子赛道,一直是投资者长期重点投研的对象。可以预见的是,随着芯片巨头们逐渐更新换代算力设备,AI 算力的逐渐提升,AI 能力越解锁越多,未来可以预见可以催生出更多的 Web3 中细分领域的 AI 基建类项目问世,甚至可以期待未来有为 Web3 中 AI 训练而专门设计和生产的芯片问世。
虽然目前 To C 的生成式 AI 产品的发展还停留在实验阶段,但是其某些 ToB 的工业级产品已经展现出巨大潜力。其中之一即是将现实世界场景迁移至数字领域的“数字孪生”技术,结合英伟达针对元宇宙愿景发布的数字孪生科学计算平台,考虑到工业界还有海量数据价值尚未释放,生成式 AI 会成为数字孪生在工业场景下重要助力。更进一步到 Web3 领域,包括元宇宙,数字内容创作,真实世界资产(Real World Asset)等等方面都会受到 AI 助力的数字孪生技术的影响,
新的交互硬件的发展也是不可忽视的一环。回顾历史,计算机领域每次硬件的革新都会带来翻天覆地的变化和崭新的发展机会,比如今天已经司空见惯的电脑鼠标,亦或是多点触控电容屏的 iPhone 4。已经宣布将在 2024 年一季度推出的 Apple Vision Pro,凭借着其惊艳的 demo 已经吸引了世界范围大量关注,当真正开售后应该能为各个行业带来意想不到的变化与机遇。而凭借着内容生产迅速、传播速度快范围广等优势,每次硬件技术更新后往往首先受益都是的大娱乐领域。这其中当然也包括 Web3 中的元宇宙、链游、NFT 等各个视觉娱乐赛道,都是值得读者未来长期关注和研究的对象。
长远来看,生成式 AI 的发展是一个量变引起质变的过程。ChatGPT的本质是一个解决reasoning Q&A 问题的解决方案,而 reasoning Q&A 在学术界是一个长期以来广受关注和研究的问题。在数据和模型的长期迭代下,最终才达到了惊艳世人的 GPT-4 的水平。Web3 中的 AI 应用也是一样,目前仍处于将 Web2 中的模型引入 Web3 的阶段,完全基于 Web3 数据开发的模型还未出现。未来需要有远见的项目方和大量的资源投入到对 Web3 中实际问题的研究,才能使得 Web3 自己的 ChatGPT 等级的 killer app 逐渐靠近。
现阶段生成式AI的技术底层也有很多值得探索的方向,其中之一的是逻辑的实现方式上依赖的思维链(Chain-of-Thought)技术。简单来说,通过思维链技术,大语言模型才得以在多步骤推理方面获得质的飞跃。然而思维链的使用也未能解决,或者说也是在某种程度上引出了,大模型在复杂逻辑上的推理能力不足的问题。对这个方面有兴趣的读者阅读一下思维链原作者的论文。
ChatGPT 的成功使得 Web3 各种蹭热度 GPT 链层出不穷,然而简单粗暴的结合 GPT 与智能合约并不能真正解决用户的需求。自 ChatGPT 发布已经过去大约一年的时间,长远看来只是弹指一挥间,未来产品还应从 Web3 用户自身真实的需求出发,伴随着越来越成熟的 Web3 技术,相信生成式 AI 在 Web3 中的应用是有着无限多的可能性值得期待的。
Google Cloud Tech - Introduction to Generative AI
The Economics of Large Language Models
Illustrating Reinforcement Learning from Human Feedback (RLHF)
Who Owns the Generative AI Platform?
Apple Vision Pro发布满月再思考:XR、RNDR和空间计算的未来
Emergent Analogical Reasoning in Large Language Models
Akash Network Token (AKT) Genesis Unlock Schedule and Supply Estimates
本报告是由 @GryphsisAcademy 的学员 @chenyangjamie,在 @CryptoScott_ETH,@Zou_Block 的指导下完成的原创作品。作者自行对所有内容负责,该内容并不必然反映 Gryphsis Academy 的观点,也不必然反映委托撰写报告的组织的观点。编辑内容和决策不受读者的影响。请知悉,作者可能拥有本报告中提到的加密货币。本文件仅供信息参考,不应作为投资决策的依据。强烈建议您进行自己的研究,并在进行投资决策之前咨询中立的财务、税务或法律顾问。请记住,任何资产的过去表现并不保证未来的回报。
所有评论