
付了钱才能用 AI?该改改了
当 Web3 与 AI 逐渐融合成"去中心化的数字生态",一个现实问题越来越突出:AI 服务到底谁该优先?
很多系统仍沿用"付费优先"的逻辑——付费越多,AI 资源越多;而那些贡献数据、真正帮助 AI 变聪明的人,反而可能拿不到与贡献匹配的权益。与此同时,数据越有价值,隐私风险往往越高:用户常担心一旦提供数据,就可能暴露个人信息、生活习惯甚至敏感内容。
这就形成了制约 AI 生态的两大瓶颈:
- 公平性瓶颈:资源分配不看贡献,只看付费,导致"数据贡献者被忽视"、资源被少数人占用或闲置。
- 隐私瓶颈:想评估数据价值就得"看数据",但看得越多,泄露风险越大。
能不能既保护隐私,又让数据贡献者获得公平回报?
LazAI 团队与加拿大英属哥伦比亚大学(UBC)研究人员在 IEEE ICME 2026 发表的研究,试图给出一个更"用户友好"的答案:不需要上传原始数据,也能评估用户的数据贡献价值;并把这个价值直接转化为更公平、更稳定的 AI 使用配额。
换句话说:让"数据贡献"成为获得 AI 权益的通行证,同时让用户隐私仍被牢牢保护。
看不见你的数据,却知道它值多少
一个更贴近用户的"云—边缘—用户"三层体系
为了让 AI 服务既"快"又"公平",系统采用三层协作:
- 云端的 AI 工具箱:提供通用的 AI 工具与能力支撑;
- 边缘端的就近服务站:部署在离用户更近的位置,负责快速响应与关键计算;
- 用户端的个人助理:运行个人 AI 智能体,替用户完成邮件摘要、图像描述等任务请求。
两个关键创新:把"贡献"变成"权益",同时不泄露隐私
这套方案的核心,是把"数据贡献—价值信号—资源配额"串成闭环。研究引入了两个核心机制:
(A)数据贡献凭证:记录贡献,但不暴露原始数据
系统通过数据锚定代币(DAT)记录用户的贡献价值——可以理解为一张"数据贡献收据"。用户把数据贡献给系统时,系统会生成可核对的贡献记录,并用于后续的配额调整。更重要的是:贡献记录关注的是"贡献值",而不是把用户的原始内容直接摊开给外界看。
(B)主题数据目录:在同类里比质量,估值更公平
系统把相似主题的数据组织成不同"数据社区/目录"(iDAO,可理解为"按主题分组的数据目录")。交通数据和交通数据比,医疗数据和医疗数据比,宠物数据和宠物数据比——避免"苹果比橘子"的不公平估值,让价值评估更可解释。
贡献越多,AI 用得越多——"AI 配额券"机制
在资源分配上,一个更直观的比喻:AI 配额就像"可兑换的服务券"。
- 系统会定期发放"可调用 AI 的额度";
- 每个用户有一个"配额上限"(像一个装券的篮子);
- 篮子满了就会溢出,避免少数人长期囤积、别人却用不上。
关键差异在于:用户配额的大小不再由付费等级决定,而是由"隐私保护下的数据估值"动态决定。
- 贡献更高质量、更独特、更及时的数据 → 配额上限更高 → 可用 AI 服务更多;
- 贡献较少也没关系 → 仍有基础配额,保证"人人可用"。
这样,系统把"公平"做成了可执行的规则:既不让资源被垄断,也不让资源白白闲置,还能让贡献者真正得到回报。
80% vs 20%:隐私保护不是承诺,是实测
隐私保护是否真的有效,不能只靠口头承诺。研究团队用一种业界标准的隐私风险测试来验证:模拟攻击者试图根据系统可见的信息,"拼回"用户的原始数据(学术界称之为"数据重建攻击")。
实验对比显示:
- 现有部分方案在重建后仍能看到明显语义线索(例如能辨认出用户上传的网球、球拍等),相似度甚至超过 80%,意味着"隐私仍可能被看穿";
- 本方案的重建结果基本不再呈现可识别语义,相似度降至约 20%,图像与文本场景下都显著降低了语义泄露风险。
用更直白的话说:系统依然能判断"用户的数据大概是什么类型、贡献有多大",但更难反推出"具体发了什么、用户是谁"。
这正是隐私保护的目标:让"价值可用",但让"个人可识别信息不可得"。
不是"又一个隐私方案"
在 Crypto/Web3 领域,相关产品大体可分为几类路线:
- "数据不出库":强调把计算带到数据旁边,数据本身不直接流转;
- 私密计算/可信硬件:在受保护环境中执行计算,但通常依赖特定硬件来保障信任;
- 算力市场/竞价机制:用交易、拍卖或定价购买算力;
- AI 网络激励/验证:根据数据进行评分、权重投票或可验证执行来分配收益与奖励。
本研究的定位更像是把隐私保护和 AI 配额分配**"合成一个闭环"**:
- 用隐私保护的方法给数据"估值"——强调在保护个人的前提下输出价值信号;
- 再用这个价值信号,直接调节每个人的 AI 使用配额——强调公平、可达、可控体验。
一句话总结差异: 很多方案解决的是"怎么交易数据/算力"或"怎么做私密计算",而这项研究更聚焦于"如何把数据贡献转化为可解释、可执行的 AI 使用权",并把隐私保护作为起点,而不是事后补丁。
为什么这件事现在很重要
这项研究对应的是正在兴起的个性化 AI 服务。未来用户可能同时拥有多个 AI 助手:邮件助理、学习助理、出行助理、内容创作助理……它们都需要稳定、可预期的 AI 资源。用户也可能愿意贡献数据来提升模型与服务,但不希望用隐私作为交换。
这套机制提供了一条路径:通过隐私保护的数据估值,把贡献转化为更公平的 AI 使用配额,并保持服务体验稳定——更少排队、更少被"闲置用户"挤占资源。
从整体 AI 生态的角度看:
- 对用户:数据贡献"看得见、算得清、拿得到",权益更明确
- 对平台:持续激励更高质量、更独特的数据流入,帮助 AI 提高服务质量
- 对行业:提供一种监管友好的数据价值释放方式——强调"使用"而非"泄露"数据
研究团队
"AI 时代,每个人贡献的数据都有其独特的价值。我们希望 AI 资源分配不再只是'谁付费谁优先',更应该是'谁贡献谁受益'。更重要的是,用户权益不必以泄露隐私为代价。我们的目标是让系统能够在看不见原始数据的情况下识别贡献价值,并把价值转化为真实可用的 AI 配额,让去中心化 AI 生态更公平、更值得信任。"— LazAI 联合创始人郭明
本研究依托加拿大 Mitacs 产学合作项目开展,由 UBC(英属哥伦比亚大学)相关团队联合完成,与 Blockchain@UBC 跨学科研究集群紧密协作。Blockchain@UBC 围绕区块链技术及"如何利用新兴技术造福加拿大及全球"的议题,通过对接产业需求与学术研究推动创新实践,同时依托其"区块链与去中心化信任技术研究生培养路径"为研究生提供结构化、跨学科的系统训练。
产业生态合作伙伴包括:
Metis 正在构建为 AI Agent 服务的全栈 Web3 基础设施。结算层 Andromeda 是首个实现去中心化排序器的 Layer 2;扩展层 Hyperion 为 AI 提供高性能执行环境;应用层 LazAI 以 DAT 资产标准,将 AI 数据与 Agent 行为转化为可验证、可拥有、可创收的链上资产。三层协同,驱动去中心化智能体经济。
LazAI Network 是 Metis 生态内的 AI 基础设施协议,使命是让 AI 与人类对齐。通过 iDAO 和 DAT 标准,解决 AI 领域数据共享难、质量评估难、收益分配不公三大核心问题。Alpha 主网已上线。
关于 IEEE ICME 2026
IEEE 国际多媒体与博览会(ICME)是由 IEEE 计算机学会、电路与系统学会、信号处理学会和通信学会四大协会联合主办的旗舰级学术会议。自 2000 年创办以来,ICME 一直是交流多媒体技术、系统及应用领域最新进展的首要论坛。
2026 年 IEEE ICME 将在泰国曼谷举行,主题为"超越感知:自主智能体时代的智能媒体"(Beyond Perception: Intelligent Media in the Age of Autonomous Agents)。本届共收到 3,810 篇投稿,录取 1,101 篇,录取率 28.89%。
联系合作
如果您正在构建 AI 服务、运营 Web3 平台、设计激励机制,或从事隐私与公平相关研究,欢迎与我们交流。论文全文、代码与演示将在具备条件后公开发布。
Media Contact:
所有评论