Cointime

扫码下载App
iOS & Android

人工智能入门必读|A16z 整理的 AI 词汇表

作者:a16z  编译:Cointime Lu Tian

  • 加速器(Accelerator)

一类微处理器,设计用于加速AI应用。

  • 代理(Agents)

能够独立地、主动地执行某些任务而无需人类干预的软件,通常使用一套工具,如计算器或网页浏览。

  • 人工通用智能(AGI,Artificial General Intelligence)

尽管没有广泛达成共识,但微软研究人员将AGI定义为在任何智力任务上与人类具备一样能力的人工智能。

  • 对齐(Alignment)

确保AI系统的目标与人类价值观一致的任务。

  • 人工超智能(ASI,Artificial Super Intelligence)

尽管存在争议,但ASI通常被定义为超越人类思维能力的人工智能。

  • 注意力(Attention)

在神经网络背景下,注意力机制帮助模型在生成输出时关注输入的相关部分。

  • 反向传播(Back Propagation)

一种经常用于训练神经网络的算法,指计算损失函数关于网络权重的梯度的方法。

  • 偏差(Bias)

AI模型对数据所做的假设。 “偏差方差权衡”是模型对数据所做假设与模型预测在不同训练数据下变化的平衡。归纳偏差是机器学习算法对数据底层分布所做的一组假设。

  • 思维链(Chain of Thought)

在AI中,这个术语通常用来描述AI模型用来得出决策的一系列推理步骤。

  • 聊天机器人(Chatbot)

一种计算机程序,通过文本或语音交互模拟人类对话。聊天机器人通常利用自然语言处理技术来理解用户输入并提供相关回应。

  • ChatGPT

由OpenAI开发的大规模AI语言模型,生成类似于人类的文本。

  • CLIP(对比性语言-图像预训练,Contrastive Language–Image Pretraining)

由OpenAI开发的AI模型,连接图像和文本,使其能够理解和生成图像描述。

  • 计算(Compute)

用于训练或运行AI模型的计算资源(如CPU或GPU时间)。

  • 卷积神经网络(CNN,Convolutional Neural Network)

一种深度学习模型,通过应用一系列滤波器处理具有网格状拓扑的数据(例如图像)。这类模型通常用于图像识别任务。

  • 数据增强(Data Augmentation):

通过添加现有数据的略微修改的副本,增加用于训练模型的数据量和多样性的过程。

  • 深度学习(Deep Learning)

机器学习的一个子领域,专注于训练具有多层的神经网络,使其能够学习复杂的模式。

  • 扩散(Diffusion)

在AI和机器学习中,一种通过从真实数据开始并添加随机噪声来生成新数据的技术。扩散模型是一种生成模型,其中神经网络被训练来预测在数据上添加随机噪声时的反向过程。扩散模型用于生成与训练数据相似的新数据样本。

  • 双下降(Double Descent)

机器学习中的一种现象,其中模型性能随着复杂度的增加而提高,然后恶化,然后再次提高。

  • 嵌入(Embedding)

数据以新形式(通常是向量空间)表示。相似的数据点具有更相似的嵌入。

  • 涌现/涌现行为(Emergence/Emergent Behavior)

在AI中,涌现指由简单规则或交互产生的复杂行为。“急转弯”和“智能爆炸”是AI发展突然发生巨大变化的推测性场景,通常与AGI的到来相关。

  • 端到端学习(End-to-End Learning)

一种不需要手工设计特征的机器学习模型。该模型只需输入原始数据,并从这些输入中学习。

  • 专家系统(Expert Systems)

应用人工智能技术为特定领域内的复杂问题提供解决方案。

  • 可解释AI(XAI,Explainable AI)

关注创建透明模型并提供其决策清晰可理解解释的AI子领域。

  • 微调(Fine-tuning)

将一个已经在大型数据集上经过预训练的机器学习模型进行调整以适应稍微不同的任务或特定领域的过程。在微调过程中,使用较小的、任务特定的数据集进一步调整模型的参数,使其能够学习任务特定的模式,并在新任务上提高性能。

  • 前向传播(Forward Propagation)

在神经网络中,前向传播是将输入数据输入网络并通过每一层(从输入层到隐藏层,最后到输出层)传递以产生输出的过程。网络对输入应用权重和偏差,并使用激活函数生成最终输出。

  • 基础模型(Foundation Model)

在广泛数据上训练的大型AI模型,旨在用于特定任务的适应。

  • 生成对抗网络(GAN,General Adversarial Network)

一种用于生成与现有数据相似的新数据的机器学习模型。它将两个神经网络相互对抗:一个“生成器”创建新数据,一个“判别器”尝试将这些数据与真实数据区分开来。

  • 生成式AI(Generative AI)

一个关注创建可以基于现有数据的模式和示例生成新的和原创内容(如图像、音乐或文本)的模型的AI分支。

  • GPT(生成预训练Transformer,Generative Pretrained Transformer)

由OpenAI开发的大规模AI语言模型,生成类似于人类的文本。

  • GPU(图形处理单元,Graphics Processing Unit)

一种专门的微处理器类型,主要设计用于快速渲染图像以输出到显示器。GPU还非常擅长执行训练和运行神经网络所需的计算。

  • 梯度下降(Gradient Descent)

在机器学习中,梯度下降是一种优化方法,它根据损失函数的最大改进方向逐步调整模型的参数。例如,在线性回归中,梯度下降通过反复优化线的斜率和截距来最小化预测误差,从而找到最佳匹配线。

  • 幻觉/幻觉现象(Hallucinate/Hallucination)

在AI的背景下,幻觉指的是模型生成的内容不基于实际数据或与现实相差很大的现象。

  • 隐藏层(Hidden Layer)

神经网络中不直接连接输入或输出的人工神经元层。

  • 超参数调优(Hyperparameter Tuning)

选择机器学习模型的超参数(从数据中未学习到的参数)的适当值的过程。

  • 推理(Inference)

利用训练好的机器学习模型进行预测的过程。

  • 指令调优(Instruction Tuning)

一种机器学习技术,根据数据集中给出的特定指令对模型进行微调。

  • 大型语言模型(LLM, Large Language Model)

一种能生成类似人类文本的AI模型,训练于广泛的数据集。

  • 潜在空间(Latent Space)

在机器学习中,这个术语指的是模型(如神经网络)创建的数据的压缩表示。相似的数据点在潜在空间中更接近。

  • 损失函数(或代价函数,Loss Function or Cost Function)

机器学习模型在训练过程中试图最小化的函数。它量化了模型预测与真实值之间的差距。

  • 机器学习(Machine Learning)

一种人工智能类型,使系统能够在无需明确编程的情况下自动学习和从经验中改进。

  • 专家混合(Mixture of Experts)

一种机器学习技巧,其中训练了几个专门的子模型(“专家”),并以依赖于输入的方式组合它们的预测。

  • 多模态(Multimodal)

在AI中,这是指可以理解和生成跨多种数据类型(如文本和图像)的信息的模型。

  • 自然语言处理(NLP, Natural Language Processing)

AI的一个子领域,专注于计算机和人类通过自然语言进行交互。NLP的最终目标是以有价值的方式阅读、解密、理解并理解人类语言。

  • NeRF(神经辐射场,Neural Radiance Fields)

一种使用神经网络从2D图像创建3D场景的方法。它可用于照片级渲染、视图合成等。

  • 神经网络(Neural Network)

一种受人类大脑启发的AI模型。它由连接在一起的单元或节点组成,称为神经元,这些神经元按层组织。神经元接收输入,对它们进行一些计算,并产生输出。

  • 目标函数(Objective Function)

机器学习模型在训练过程中试图最大化或最小化的函数。

  • 过拟合(Overfitting)

一种建模错误,当函数与有限数据点过于紧密匹配时发生,导致在应用于未见数据时预测性能不佳。

  • 参数(Parameters)

在机器学习中,参数是模型用来进行预测的内部变量。它们是在训练过程中从训练数据中学习的。例如,在神经网络中,权重和偏差是参数。

  • 预训练(Pre-training)

训练机器学习模型的初始阶段,模型在此阶段从数据中学习通用特征、模式和表示,而无需具体了解将来要应用到的任务。这种无监督或半监督学习过程使模型能够建立对底层数据分布的基本理解,并提取有意义的特征,这些特征可以用于后续针对特定任务的微调。

  • 提示(Prompt)

为模型设置任务或查询的初始上下文或指令。

  • 正则化(Regularization)

在机器学习中,正则化是一种防止过拟合的技术,通过在模型的损失函数中添加惩罚项来实现。这种惩罚阻止模型过分依赖训练数据中的复杂模式,从而促进更具泛化能力和不容易过拟合的模型。

  • 强化学习(Reinforcement Learning)

一种机器学习类型,其中智能体通过在环境中采取行动来最大化某种奖励,从而学会做出决策。

  • RLHF(来自人类反馈的强化学习,Reinforcement Learning from Human Feedback)

一种通过从人类对模型输出给出的反馈中学习来训练AI模型的方法。

  • 奇点(Singularity)

在AI背景下,奇点(也称为技术奇点)指的是一个假设的未来时间点,当时技术增长变得无法控制和不可逆转,导致人类文明发生无法预料的变化。

  • 监督学习(Supervised Learning)

一种机器学习类型,其中模型提供带有标签的训练数据。

  • 符号人工智能(Symbolic Artificial Intelligence)

一种利用符号推理解决问题和表示知识的AI类型。

  • TensorFlow

由谷歌开发的开源机器学习平台,用于构建和训练机器学习模型。

  • TPU(Tensor Processing Unit)

谷歌专门为加速机器学习工作负载开发的一种微处理器类型。

  • 训练数据(Training Data)

用于训练机器学习模型的数据集。

  • 迁移学习(Transfer Learning)

机器学习中的一种方法,将预训练模型应用于新问题。

  • Transformer

一种主要用于处理顺序数据(如自然语言)的特定类型神经网络结构。Transformer以其处理数据中长距离依赖性的能力而闻名,这要归功于一种名为“注意力”的机制,它允许模型在产生输出时权衡不同输入的重要性。

  • 欠拟合(Underfitting)

统计学和机器学习中的建模错误,当统计模型或机器学习算法无法充分捕捉数据的底层结构时发生。

  • 无监督学习(Unsupervised Learning)

一种机器学习类型,其中模型没有提供带有标签的训练数据,而是必须自行识别数据中的模式。

  • 验证数据(Validation Data)

用于机器学习的数据集的子集,与训练和测试数据集分开。它用于调整模型的超参数(即结构,而不是权重)。

  • XAI(可解释AI,Explainable AI)

AI的一个子领域,专注于创建透明的模型,为其决策提供清晰、易于理解的解释。

  • 零样本学习(Zero-shot Learning)

一种机器学习类型,其中模型在训练期间未见过的条件下进行预测,无需进行任何微调。

评论

所有评论

推荐阅读

  • 疑似Bitmine新建钱包从Kraken收到20,000枚ETH,约合4,167万美元

    据Onchain Lens监测,一个新创建的钱包从Kraken收到了20,000枚$ETH,价值约4,167万美元。该钱包很可能属于Bitmine。

  • 以太坊L2 TVL跌至317亿美元,七日跌幅10.6%

    据 L2BEAT 数据,当前以太坊 Layer2 总锁仓量(TVL)跌至317亿美元,7 日跌幅10.6%。其中锁仓量前五分别为:

  • Tether协助土耳其冻结5.44亿美元非法加密资产

    Tether应土耳其当局请求,冻结了超过5.44亿美元的加密资产,这些资金涉及某涉嫌非法线上博彩及洗钱网络。Tether首席执行官Paolo Ardoino表示,该公司在接到执法部门提供的信息后,依法采取冻结措施,这种合作是Tether全球合规工作的一部分,此前也曾配合美国司法部和FBI等机构行动。分析机构Elliptic数据显示,截至2025年底,Tether及Circle共将约5,700个钱包列入黑名单,冻结资金总额约25亿美元,其中约三分之二为USDT。

  • BTC突破69000美元

    行情显示,BTC突破69000美元,现报69039美元,24小时涨幅达到3.96%,行情波动较大,请做好风险控制。

  • 「BTC OG内幕巨鲸」再将6908万USDT充值进易理华关联的Binance充值地址

    据链上分析师Ai姨(@ai_9684xtpa)监测,「BTC OG内幕巨鲸」又将6908万枚USDT充值进了易理华关联的Binance充值地址。过去11小时已累计转入1万枚ETH和6908万枚USDT,总价值8947万美元。 此前消息,易理华与「BTC OG内幕巨鲸」使用同一Binance存款地址。Trend Research地址于1天前将798.9万USDT转入0xcdF开头地址,随后转移至0x28C开头的Binance热钱包地址。「BTC OG内幕巨鲸」于2小时前将1万枚ETH转入0xcdF开头地址,随后转移至0x28C开头的Binance热钱包地址。

  • “1011内幕巨鲸”从币安提出5500万枚USDC 或为变卖BTC所得

    据链上分析师Ai监测,“1011内幕巨鲸”于5分钟前从币安提出5500万枚USDC,他过去6小时向币安充值5000枚BTC(价值3.5亿美元),疑似已完成出售。

  • CoinList:AC新项目Flying Tulip代币销售已结束,成交额近1000万美元

    CoinList在X平台发文表示,其平台上的AC新项目Flying Tulip代币销售已结束,成交额接近1000万美元,参与者应该已收到FT NFT(代币+完全赎回权),该NFT已交付到相关非托管外部钱包。此外,用户还可以选择持有、赎回(随时可以销毁FT并按面值赎回您的原始资产且已赎回的FT将被销毁)、以及解锁和交易(将放弃赎回权,但FT将可以自由交易)。

  • Michael Saylor:出售比特币也是一个选项,不再坚持只买不卖

    据财新网披露,全球最大企业级比特币持有者Strategy在2025财年第四季度及全年财务业绩中表示,该公司Q4资产公允价值变动录得174亿美元未实现损失,净亏损达到124亿美元。虽然该公司持有22.5亿美元现金储备,可覆盖债务利息与股息,暂无抛售风险,但公司联合创始人Michael Saylor在财报电话会议上不再坚持“只买不卖”,称“出售比特币也是一个选项”,对此一位投资者表示“这无疑将进一步引发市场的提前抛售”。

  • 特朗普近来已20次声称通胀得到控制

    特朗普一直把自己塑造成是共和党中应对生活成本问题的主要代言人。自去年12月以来,特朗普就经济问题发表了五次演讲,其中近20次声称通胀已被控制或大幅下降,近30次声称物价正在下降。这些说法与过去一年接近3%的通胀率以及选民为生活必需品支付更高价格的切身感受相矛盾。例如,自特朗普一年前上任以来,牛肉价格上涨了18%,而咖啡粉价格上涨了29%。共和党策略师表示,特朗普在选民最关心的问题上给出矛盾的信息,可能会在11月中期选举前夕损害他本人和共和党的信誉,届时国会的控制权将面临考验。民意调查显示,美国选民对特朗普的经济政策深感不满。

  • ITA 2026 首届RWA全球峰会倒计时2天

    2月7日消息,为探讨RWA(现实世界资产)前沿趋势,搭建政、经、产、学、研多方高端交流合作平台,紫荆杂志社联合RWA生态国际联合会、三角形科技(香港)有限公司、WebX全球数字控股集团、Coin Found等公司,将于2月9日在香港举办的“ITA 2026 首届RWA全球峰会”,倒计时2天。