DWF报告:AI在DeFi收益优化跑赢人类,自主交易却落后5倍

原文作者:DWF Ventures

原文编译:深潮 TechFlow

导读:AI Agent 已经占据 DeFi 近五分之一的交易量,在收益优化这种规则明确的场景中确实跑赢了人工。但真让它自主交易,顶尖 AI 的表现还不如顶尖人类的五分之一。这篇研究拆解了 AI 在 DeFi 不同场景下的真实表现,值得所有关注自动化交易的人看看。

核心要点

自动化和 agent 活动目前占所有链上活动的约 19%,但真正的端到端自主性仍未实现。

在收益优化等狭窄、定义明确的用例中,agent 已表现出优于人类和 bot 的性能。但对于交易等多方面行动,人类表现优于 agent。

在 agent 之间,模型选择和风险管理对交易表现影响最大。

随着 agent 被大规模采用,存在多项关于信任和执行的风险,包括女巫攻击、策略拥挤和隐私权衡。

Agent 活动持续增长

过去一年 agent 活动稳步增长,交易量和交易数量都在增加。我们看到 Coinbase 的 x402 协议引领了重大发展,Visa、Stripe 和 Google 等玩家也加入其中推出自己的标准。目前正在构建的大部分基础设施旨在服务两类场景:agent 之间的通道或由人类触发的 agent 调用。

虽然稳定币交易已得到广泛支持,但当前基础设施仍依赖传统支付网关作为底层,这意味着它仍然依赖中心化对手方。因此,agent 可以自我融资、自我执行并根据不断变化的条件持续优化的”完全自主”终局尚未实现。

Agent 对 DeFi 来说并不完全陌生。多年来,链上协议中一直存在通过 bot 实现的自动化,捕获 MEV 或获取没有代码就无法实现的超额收益。这些系统在定义明确的参数下运行得非常好,这些参数不会频繁变化或需要额外监督。然而市场随时间推移已变得更加复杂。这就是我们看到新一代 agent 进入的地方,过去几个月链上已成为此类活动的实验场。

Agent 的实际表现

根据报告,agent 活动呈指数级增长,自 2025 年以来已启动超过 17,000 个 agent。自动化/agent 活动总量估计覆盖所有链上活动的 19%以上。这并不令人意外,因为据估计超过 76%的稳定币转账量由 bot 生成。这表明 DeFi 中 agent 活动有巨大的增长空间。

Agent 自主性存在广泛的范围,从需要高度人类监督的聊天机器人式体验,到可以根据目标输入制定适应市场条件策略的 agent。与 bot 相比,agent 具有几个关键优势,包括在毫秒内响应和执行新信息的能力,以及在保持同样严格性的同时将覆盖范围扩展到数千个市场的能力。

目前大多数 agent 仍处于分析师到副驾驶级别,因为它们大多数仍处于测试阶段。

收益优化:Agent 表现优异

流动性提供是自动化已经频繁发生的领域,agent 持有的总 TVL 超过 3900 万美元。这个数字主要衡量用户直接存入 agent 的资产,但不包括金库路由的资本。

Giza Tech 是这一领域最大的协议之一,去年底推出了首个 agent 应用 ARMA,旨在增强主要 DeFi 协议的收益捕获。它已吸引超过 1900 万美元的管理资产,并产生了超过 40 亿美元的 agent 交易量。交易量与管理资产总额的高比率表明,agent 频繁重新平衡资本,从而能够实现更高的收益捕获。一旦资本存入合约,执行就会自动化,因此为用户提供了简单的一键式体验,几乎不需要监督。

ARMA 的表现是可衡量的优异,为 USDC 产生超过 9.75%的年化收益率。即使考虑额外的重新平衡费用和 agent 的 10%业绩费,收益率仍超过 Aave 或 Morpho 上的普通借贷。尽管如此,可扩展性仍然是一个关键问题,因为这些 agent 仍未经过实战测试来管理或扩展到主要 DeFi 协议的规模。

交易:人类大幅领先

然而对于交易等更复杂的行动,结果要多样化得多。当前的交易模型基于人类定义的输入运行,并根据预设规则提供输出。机器学习通过使模型能够根据新信息更新其行为而无需显式重新编程来扩展这一点,将其推进到副驾驶角色。随着完全自主的 agent 加入,交易格局将发生巨大变化。

已经举办了几场 agent 之间以及人类对 agent 的交易竞赛,结果显示模型之间存在很大差异。Trade XYZ 为其平台上市的股票举办了人类对 agent 的交易竞赛。每个账户有 1 万美元的初始资金,对杠杆或交易频率没有限制。结果压倒性地偏向人类,顶尖人类的表现比顶尖 agent 高出 5 倍以上。

与此同时,Nof1 举办了模型之间的 agent 交易竞赛,让几个模型(Grok-4、GPT-5、Deepseek、Kimi、Qwen3、Claude、Gemini)相互竞争,测试从资本保值到最大杠杆的不同风险配置。结果揭示了几个可以帮助解释业绩差异的因素:

持仓时间:存在强相关性,平均每个头寸持有 2-3 小时的模型大大优于频繁翻转的模型。

期望值:这衡量模型平均每笔交易是否赚钱。有趣的是,只有前 3 名模型具有正期望值,这意味着大多数模型亏损的交易多于盈利。

杠杆:平均 6-8 倍的较低杠杆水平被证明比运行超过 10 倍杠杆的模型表现更好,高水平会加速损失。

提示策略:Monk Mode 是迄今为止表现最好的模型,而 Situational Awareness 表现最差。基于模型的特征,它显示专注于风险管理和较少外部来源会带来更好的表现。

基础模型:Grok 4.20 在不同提示策略中的表现显著优于其他模型 22%以上,并且是唯一平均盈利的模型。

其他因素如多空偏好、交易规模和置信度评分没有足够的数据或被证明与模型表现有任何正相关。总体而言,结果表明 agent 在明确定义的约束内往往表现更好,这意味着人类在目标配置方面仍然非常需要。

如何评估 Agent

鉴于 agent 仍处于早期阶段,目前还没有全面的评估框架。历史表现通常被用作评估 agent 的基准,但它们受到基础因素的影响,这些因素提供了强大 agent 表现的更强烈迹象。

不同波动性下的表现:包括当条件恶化时有纪律的损失控制,这表明 agent 能够识别会影响交易盈利能力的链下因素。

透明度与隐私:双方都有自己的权衡。透明的 agent 如果可以被主动复制交易,基本上就不会在策略上有优势。私密的 agent 会面临创建者内部提取的风险,创建者可以轻松抢跑自己的用户。

信息来源:agent 接入的数据源对于确定 agent 如何做出决策至关重要。确保来源可信且没有单一依赖性至关重要。

安全性:拥有智能合约审计和适当的资金托管架构以确保在黑天鹅事件中有后备措施非常重要。

Agent 的下一步

为了大规模采用 agent,在基础设施方面仍有大量工作要做。这可以归结为围绕 agent 信任和执行的关键问题。自主 agent 的行动没有护栏,已经出现了资金管理不善的实例。

ERC-8004 于 2026 年 1 月上线,成为首个链上注册表,使自主 agent 能够相互发现、建立可验证的声誉并安全协作。这是 DeFi 可组合性的关键解锁,因为信任分数嵌入在智能合约本身中,允许 agent 和协议之间的无许可活动。这并不能保证 agent 始终以非恶意方式运行,因为串通声誉和女巫攻击等安全漏洞仍可能发生。因此,在保险、安全、agent 的经济质押等方面仍有很大空间需要填补。

随着 DeFi 中 agent 活动的扩大,策略拥挤成为结构性风险。收益农场是最明确的先例,随着策略的普及,回报会压缩。同样的动态可能适用于 agent 交易。如果大量 agent 在相似数据上训练并优化相似目标,它们将在相似头寸和相似退出信号上趋同。

康奈尔大学 2026 年 1 月发表的 CoinAlg 论文正式化了这个问题的一个版本。透明的 agent 可被套利,因为它们的交易是可预测的并且可以被抢跑。私密 agent 避免了这种风险,但引入了不同的风险,即创建者对自己的用户保留信息优势,并且可以通过不透明性本来要保护的内部知识提取价值。

Agent 活动只会继续加速,今天奠定的基础设施将决定链上金融的下一阶段如何运作。随着 agent 使用率的增加,它们将自我迭代并在适应用户偏好方面变得更加敏锐。因此,主要差异化因素将归结为可以信任的基础设施,而这些将获得最大的市场份额。

谢家印Q1述职实录:告别单一叙事,UEX全景战略已获验证

在昨晚的 Q1 季度述职直播中,Bitget 华语负责人谢家印向社区用户进行了一场深度的业务交底。

随着全球资本在加密货币及美股、CFD 等传统金融领域之间频繁轮动,单一的加密视角已无法满足成熟交易者跨越周期的需求。

从底层流动性抗压、全景交易(UEX)战略落地,到 AI 交易引擎与重磅的 IPO Prime 布局。

Bitget 正在重新定义交易所的角色边界。

以下为本次述职的核心内容梳理⬇️

(免责声明:本文为直播内容整理,所涉观点不构成任何形式的投资建议。)

1. 资金的加速流入,反映了怎样的市场共识?

Bitget 近 7 日资金净流入位列全球 CEX 首位;BTC 储备年度同比增长 86%(增至 36,700 枚)。

大资金的加速沉淀,是对平台流动性与安全性的最真实投票。而这背后的核心支撑,正是极具韧性的“盘口承接力”。

此外,Bitget 长期致力于底层流动性的建设,据 TokenInsight 3 月流动性报告显示:

  • Bitget 合约板块流动性:BTC/ETH 核心区间(0.05% – 0.1%),全网领跑
  • Bitget 现货板块流动性:BTC/ETH 核心区间(0.03% – 0.05%),位列全网前二

优秀的深度表现意味着:大单进出低损耗,交易摩擦低。

这是平台为每位用户提供的最坚实的安全垫。

2. 为什么“多资产跨界”成为今年的绝对叙事?

现在的成熟交易者,面对的是一个越来越融合的资产世界。

大家不仅在交易 Crypto,还在多元配置美股、贵金属和外汇等全球其他优质资产,以对冲风险。

面对用户对 TradFi(传统金融)资产极其庞大的真实需求,Bitget 早在去年就率先破局,转型为全球首家 UEX 全景交易所。并在 2026 年第 1 季度稳步推进以下四大举措,全面拥抱这一趋势:

  • 发布 UEX 白皮书:消除资产准入碎片化,统筹全景视角。
  • App 重构:Crypto 与 TradFi 首页并立,整体操作路径缩短约 30%。
  • CFD 全量开放:用 USDT 直通 79 种资产,最高 500x 杠杆,手续费低至每手 0.09 美元。
  • 美股极致让利
  • 美股代币(扩容至 263 只)支持 5×24 ,全面零费率。
  • 美股合约(扩容至 49 只)支持 7×24,费率低至 0.0065%。

这一系列打破资产壁垒的动作,在季度尾声迎来了强劲的规模化数据验证:

  • 美股代币:占据 Ondo 近 6 成日交易量份额(来源:Dune)
  • 美股合约:核心科技巨头合约持仓量全网第一(来源:CoinGlass)
  • CFD 板块:单日交易量突破 60 亿美元;黄金/白银 24H 成交额稳居前二(来源:CoinGlass)

跨市场交易存在必然的迁移成本。用极致的让利和产品打磨始终让用户受益,是 Bitget 降低跨资产摩擦成本、回馈用户最朴实的方式。

3. IPO Prime:什么是真正的“金融平权”?

传统的 Pre-IPO 市场,历来是华尔街顶级机构与高净值老钱的专属游戏,普通人缺乏触达渠道。 为了打破这道壁垒,Bitget 本季度推出了创新代币销售平台——IPO Prime

首期上线资产为 preSPAX,是由受监管发行方 Republic 发行的数字代币,旨在以 1:1 的方式镜像 SpaceX 上市后的经济收益表现。SpaceX(太空探索技术公司)由埃隆·马斯克于 2002 年创立。

这不仅是一个新产品,更是 Bitget 业务触角从二级市场向全球顶级一级市场延伸的标志。 让普通用户,也能平等地参与到世界级独角兽企业上市前的红利分配中。

4. AI 交易引擎:超越对话,直达行动

AI 不应只是套着壳的聊天机器人。

交易最大的痛点是“知易行难”。为了解决执行落地的最后一公里,Bitget 完成了 AI 引擎的三层重构:

  • 智能洞察:Gracy AI(行业首发数字人)与 GetAgent(个性化交易助手)
  • 底层基建:Agent Hub(面向开发者的 9 大模块 + 58 项工具)
  • 实盘落地:GetClaw(零门槛云端 AI 交易员)

尤其是 GetClaw,它为 AI Agent 提供了独立的实盘交易账户。从账户层面隔离交易资金,让交易更加安全。

哪怕不懂代码,用户也可以通过自然语言下达指令,让 AI 在云端自动盯盘并执行。

这意味着,专业级的自动化交易能力,被真正交还给了每一个普通用户。

5. VIP 生态:“来了就是 VIP”

平台与用户最好的关系,是长期的合伙人。

本季度,Bitget VIP 体系除了 6 大权益,还迎来了深度进阶:

  • 兜底守护:设立 500 万美金守护基金(涵盖等级保护、高息理财、现货杠杆 0 息等专属福利)
  • 千万俱乐部:月月赠送高端好礼,1-4月已兑现爱马仕、苹果、茅台精品礼盒

而在新币空投方面,Bitget 更是直接拿出近 1000 枚极度稀缺的一级市场资产 preSPAX,分两轮免费空投。用平台的力量,把少数人的资本特权变成 VIP 的默认权益:

  • 第一轮:面向现有 VIP,共 760 枚,发放时间 4 月 16 日。
  • 第二轮:面向新晋 VIP,共 190 枚,发放时间 4 月 20 日。

但在“全景交易 UEX”时代,Bitget 的态度极其清晰:

Bitget UEX,来了就是 VIP。

对于核心高净值客户,必然倾尽全力,提供最极致的专属定制与稀缺资产分配;

对于所有普通用户,UEX 所提供的低费率、深盘口与高效客服响应,本身就是 VIP 级的交易环境。

每位把信任交给平台的用户,都是最尊贵的 VIP。

总结

从 Q1 的实战交底来看,Bitget 正在完成从“单一加密平台”向“全景交易枢纽”的跨越。

  • 主流币种的深度优势,是支撑大资金运转的安全底座。
  • 传统金融板块的爆发,印证了跨资产融合的刚需及 Bitget UEX 战略的优势。
  • IPO Prime 与 preSPAX 空投,大力推动金融平权和用户赋能。
  • AI 矩阵的落地,正在重塑个人投资者的自动智能化交易能力。
  • “来了就是 VIP”的理念,延续了平台长期主义的温度。

世界在轮动,视野无边界。

Bitget 正在致力于成为大家跨越周期的最佳合伙人。

世界模型从预测走向规划,HWM与长时程控制难题

导语

世界模型近一年的研究焦点最初集中在表征学习和未来预测。模型先理解世界,再在内部推演未来状态。这条路线已经产出一批有代表性的成果。V-JEPA 2(Video Joint Embedding Predictive Architecture 2——Meta 在 2025 年发布的一套视频世界模型)用超过 100 万小时互联网视频做预训练,再结合少量机器人交互数据,展示了世界模型在理解、预测和零样本机器人规划上的潜力。

但模型会预测,不等于模型会处理长任务。面对多阶段控制,系统通常会遇到两个压力。一个是预测误差会在长rollout(连续多步推演)中持续积累,导致整条路径越来越容易偏离目标。另一个是动作搜索空间会随horizon(规划视距)增长而迅速扩大,导致规划成本持续上升。HWM 没有改写世界模型的底层学习路线,而是在已有带动作条件的世界模型之上加入分层规划结构,让系统先组织阶段路径,再处理局部动作。

从技术上看,V-JEPA 2(https://ai.meta.com/research/vjepa/) 更偏向世界表征与基础预测,HWM 更偏向长时程规划,WAV (World Action Verifier: Self-Improving World Models via Forward-Inverse Asymmetry,https://arxiv.org/abs/2604.01985)更偏向模型对自身预测失真的识别与修正。三条线正在逐步收敛。世界模型研究的重点,已经从单纯预测未来,转向如何把预测能力转成可执行、可修正、可验证的系统能力。

一、长时程控制为何仍是世界模型的瓶颈

长时程控制的难点,放到机器人任务里会更容易看清。以机械臂操作为例,抓起一个杯子再把它放进抽屉,这不是单一动作,而是一串连续步骤。系统要靠近物体,调整姿态,完成抓取,移动到目标位置,再处理抽屉和放置。链条一长,两个问题就会同时出现。一是预测误差会沿着rollout持续积累,另一个是动作搜索空间会迅速扩大。

系统缺少的,通常不是局部预测能力,而是把远目标组织成阶段路径的能力。许多动作从局部看像是在偏离目标,实际却是完成目标所需的中间步骤。比如抓取前先抬高手臂,开抽屉前先后退一点再调整角度。

在展示型任务中,世界模型已经能够给出连贯预测。但进入真实控制场景后,性能开始下滑,问题也随之浮现。压力不只来自表征本身,也来自规划层还不够成熟。

二、HWM 如何重构规划过程

HWM把原本一层完成的规划过程拆成两层。上层负责较长时间尺度上的阶段方向,下层负责较短时间尺度上的局部执行。模型不是只按一个节奏规划,而是按两个不同的时间节奏同时规划。

单层方法处理长任务时,通常需要在底层动作空间里直接搜索整条动作链。任务越长,搜索成本越高,预测误差也越容易沿着多步 rollout 持续扩散。HWM拆开过程后,高层只处理较长时间尺度上的路线选择,低层只处理当前这一段动作的完成,整条长任务被拆成多段较短任务,规划复杂度随之下降

这里还有个关键设计,高层动作并不是简单记录两个状态之间的差值,而是用一个编码器,把一段低层动作压缩成更高层的动作表示。对长任务来说,关键不只在起点和终点之间差了多少,更在于中间步骤是如何组织的。高层如果只看位移差,容易丢掉这段动作链里的路径信息。

HWM体现的是一种分层任务组织方式。面对一项多阶段工作,系统不再一次性展开所有动作,而是先形成较粗的阶段路径,再逐段执行与修正。这种层级关系进入世界模型之后,预测能力会开始更稳定地转化成规划能力。

三、从0%到70%,实验结果说明了什么

在论文设置的真实世界抓取并放置任务中,系统只拿到最终目标条件,不提供人工拆好的中间目标。在这种条件下,HWM的成功率达到 70%,而单层 world model 成功率为 0%。原本几乎无法完成的长任务,在引入分层规划后,变成了大概率可实现的结果。

论文还测试了推物体操作和迷宫导航等仿真任务。结果显示,分层规划不只提高了成功率,也降低了规划阶段的计算成本。在一些环境中规划阶段的计算成本最多可以减少到原来的四分之一左右,同时保持更高或相当的成功率。

四、从 V-JEPA 到 HWM 再到 WAV

V-JEPA 2代表的是世界表征这条路线。V-JEPA 2 用超过 100 万小时互联网视频进行预训练,再结合不到 62 小时的机器人视频做 post-training(预训练后的针对性训练),得到可用于理解、预测和规划物理世界的 latent action-conditioned world model(在抽象表示空间中、结合动作信息进行预测的世界模型)。它所展示的是模型可以通过大规模观察获得世界表征,并把这种表征迁移到机器人规划中。

HWM 处在下一步。模型已经拥有世界表征和基础预测能力,但一进入多阶段控制,误差累积和搜索空间扩张的问题就会爆发。HWM没有改变底层表示学习路线,而是在已有带动作条件的世界模型之上加入多时间尺度的规划结构。它所处理的问题是模型怎样把远目标组织成一组中间步骤,再逐段推进。

WAV则进一步把焦点放在验证能力上。世界模型想进入策略优化和部署场景,不能只会预测,还要能发现自己在哪些区域容易失真,并据此进行校正。它关注的是模型怎样检查自己。

V-JEPA偏向世界表征,HWM偏向任务规划,WAV偏向结果验证。三者虽关注点不同,但大方向是一致的。世界模型的下一阶段,已经不只是内部预测,而是预测、规划、验证逐渐连成一套系统能力。

五、从内部预测走向可执行系统

过去不少世界模型工作,更接近于提升未来状态预测的连续性,或者提升内部世界表征的稳定性。但当前研究重点已经开始变化,系统既要形成对环境的判断,也要把判断转成动作,并在结果出来后继续修正下一步。想要更接近真实部署,就需要在长时程任务里控制误差传播、压缩搜索范围、降低推理成本。

这类变化也会影响 AI agent。很多agent系统已经能完成短链路任务,比如调用工具、读取文件、执行若干步骤指令。但任务一旦变成长链路、多阶段、需要中途重规划,性能就会下滑。这与机器人控制中的难点并没有本质差别,都是高层路径组织能力不足,导致局部执行和整体目标之间脱节。

HWM提供的分层思路,高层负责路径与阶段目标,低层负责局部动作与反馈处理,再叠加结果验证,这类分层结构未来会在更多系统中持续出现。世界模型的下一阶段,重点也不再只是预测未来,而是把预测、执行和修正组织成一条可以运行的路径。

BIT 投研:五大信号同时亮起,比特币熊市或已结束?

当前市场正处于一个关键转折阶段。多个彼此独立的技术指标,正在逐步指向同一判断:始于 2025 年 10 月的比特币熊市,可能已经接近尾声,甚至已经结束。与 2022 年那轮漫长且反复探底的熊市不同,本轮周期中,市场结构已出现明显变化。现货比特币 ETF 的推出以及监管不确定性的阶段性缓解,使价格下行过程中缺乏“被动过度杀跌”的环境。同时,从历史经验来看,比特币极少在未经历震荡的情况下直接进入单边上涨,当前更可能处于“底部确认后的整理阶段”。

在这一背景下,单一指标的参考意义有限,但当多个信号开始同时出现时,其指向的结论正在变得更加清晰:市场正在从趋势下行,逐步过渡至拐点确认阶段。

技术信号集中出现:从底部形态到趋势修复

从技术结构来看,本轮市场最核心的变化在于“信号共振”。首先,周线随机指标已重新回到 20 上方,这一形态通常出现在市场最差阶段之后,历史上更多对应底部形成,而非下跌延续。与此同时,新的趋势信号再次出现,在此前两次未兑现后再次触发,使其参考价值显著提升。

其次,比特币价格正逐步接近 21 周均线(约 77,592 美元),这一水平长期被视为区分牛熊周期的重要参考线。当前价格在 75,000 美元附近震荡,重新站上该区间更可能是时间问题。一旦突破并企稳,将构成明确的趋势性确认信号。

此外,月线 RSI 亦存在回到均线上方的可能。历史上,这一信号多出现在熊市底部区域附近。若本轮再次出现,将进一步强化市场已完成底部构建的判断。整体来看,这些指标单独出现时意义有限,但当其在同一时间窗口内集中出现时,市场状态已从“下行趋势延续”,转向“底部结构逐步确立”。

关键价格区间确认:从震荡修复到上行准备

在技术指标之外,价格本身仍是最核心的验证变量。当前市场正在测试 66,000–73,000 美元这一关键区间。2024 年 3 月约 73,084 美元的高点,已构成中期顶部结构。若价格能够有效突破并站稳该区间,将意味着此前的下行趋势已被实质性扭转。

从结构上看,本轮走势与一年前存在一定相似性:市场在外部冲击下快速下探,随后进入窄幅震荡,最终通过向上突破完成趋势切换。目前价格已开始向上试探区间上沿,若延续这一节奏,短期内上探 88,000 美元甚至更高,并不算激进。与此同时,下方 64,972 美元已成为当前阶段的重要支撑位。只要价格维持在该水平上方,整体趋势将逐步由中性转向偏多。因此,与其判断市场是否“已经进入牛市”,更关键的问题在于:价格是否能够完成区间突破,从而确认趋势切换。

当前来看,市场已有五个信号逐步指向同一方向:周线随机指标转强、趋势信号再次出现、价格逼近 21 周均线、月线 RSI 存在确认可能,以及此前下行趋势已被有效突破。单一信号仍不足以下定论,但当这些信号在同一阶段集中出现时,其指向的结论可信度显著提升。综合来看,始于 2025 年 10 月的这轮熊市,可能已经接近尾声。

对市场而言,关注重点也正在发生转移:问题不再是比特币是否继续修复,而是当趋势真正切换完成后,上行的速度与空间将如何展开。在这一过程中,价格区间的突破与流动性环境的变化,将成为下一阶段最核心的观察变量。

上述部分观点来自 BIT on Target, 与我们联系获取 BIT on Target 完整报告。

免责声明:市场有风险,投资需谨慎。本文不构成投资建议。数字资产交易可能具有极大的风险和不稳定性。投资决策应在仔细考虑个人情况并咨询金融专业人士后做出。BIT 不对基于本内容所提供信息的任何投资决策负责。

AI Agent炒币真赚啊:8天100 U做到20万U

最近,AI Agent 交易系统“拉哪”火了,其仅用 8 天,就将 100 U 做到了 20 万 U,截至 4 月 16 日,账户总余额超 25 万 U。

据其作者 Lana(@lanaaielsa)披露,构建这套交易系统的原因很简单。

去年 10 月 BSC 牛市期间,他身边有朋友因追逐暴富叙事投入 10 万 U,最终在行情回撤中几乎亏光,最后 1 万 U 转入链上继续交易也全部归零,随后退场。近期随着山寨币讨论热度回升,他判断可能进入新一轮做市(MM)行情阶段。由于自身不熟悉二级交易和 K 线分析,他选择借助 AI 构建交易系统:让 Claude 编写脚本,抓取币安广场高热度帖子与高频讨论币种,并结合涨幅榜筛选波动标的进行交易。系统一开始采用 20%止损,随后优化为固定亏损 200 U 止损,并只做单一方向的趋势跟随。同时,拉哪还负责在币安广场发布实盘记录、生成收益截图、运营账号

看起来简单吧。但我细研究了下,拉哪可不只是简单的自动下单脚本,而是一套拥有自己交易逻辑的操作系统。

拉哪是如何交易并实现盈利的?

1、有严密的选标逻辑

从交易记录来看拉哪并不对市场行情进行预测,只做跟随,也就是趋势行情,专注于捕捉已经启动的币种。涉及标的包括:币安人生、RAVE、ORDI、BASED、TRUMP、SIREN、1000SATS、1000RATS、EIGEN、PIXEL、EDGE、BAN、ASTER、AIA、FIGHT、GENIUS、CL、BTC、GIGGLE、HYPE、BLESS、PUMP、HEMI、CFX。

筛选的标准大致可以分为三个层次:

首先是舆论层,拉哪会抓取币安广场的帖子数量、讨论频率以及情绪方向,寻找短时间内被反复提及的币种。

其次是价格层,只有当舆论层筛选出来的币种同时出现在涨幅榜、出现明显波动时,才会触发进一步筛选。证明是有趋势行情出现的概率。

最后通过观察 OI(持仓量)变化,筛选出“持仓增加但价格尚未完全反应”的币种,用于判断是否存在提前布局的资金。

2、有明确的止损标准

在拉哪开始运行的初期,采用固定 20%止损,随后优化为“固定亏损额度”,也就是无论仓位大小,每一笔交易的最大亏损控制在约 200 U 左右

从交易的历史记录来看,大部分亏损都集中在这一范围内。但也有超出止损标准的单子,比如 GENIUS 曾浮亏超 6880 U 却仍未平仓,Lana 本人解释到:“因为 GENIUS 是新币,新币的波动比较大所以放很宽的止损,早期的仓位一般加上杠杆就是 500 U 对应 200,后面仓位大了后开始开 10k 或者 25k 的仓位,对应止损金额就高一点。”

3、有动态的止盈标准

与止损不同,这套系统并没有设定固定止盈点,主要是通过周期性评估来决定是否继续持有,例如每隔一段时间重新判断当前标的的上涨与下跌概率。可以理解为,它在持续问一个问题:如果现在没有仓位,我还会不会买?

从交易的历史数据来看,绝大部分利润集中在少数几个币种上,例如“币安人生”“RAVE”“ORDI”等,而其他多数交易则以小幅亏损或小幅盈利结束。

发现了吗?拉哪不是靠每一单赚钱,而是靠少数单子爆赚,多数单子进行严格的止损。

如何训练出拉哪?方法论可复用吗?

1、喂养数据定基调

这套系统最初的策略雏形,来源于 Lana 对 Hyperliquid 上一些保持长期稳定盈利钱包行为的观察,更多的是只做一个方向,不会多空两个方向一直切换。所以喂给 AI 最重要的数据之一就是来自 Hyperliquid 上聪明钱包的交易行为,让 AI 进行系统性的学习怎么才能通过交易赚钱。同时也会喂给 AI 一些基础的合约指标,以及一些链上数据。让 AI 能够通过理解这些钱包的操作形成自己的框架。

当然除了链上行为数据之外,系统还会不断的自行抓取舆论与行情数据作为补充:

  • 币安广场的讨论密度与热点内容;
  • 涨幅榜与价格波动;
  • OI 变化等基础的合约指标。

2、对话修正定框架

在让 AI 学习了基础的操作手法之后,下一步不在于获取更多信息,而在于如何对这些信息进行筛选和约束,也就是为 AI 建立一套明确的决策框架

从其使用方式来看,这套系统的判断逻辑并非一次性设定完成,而更可能是在持续运行与反馈中逐步修剪形成。在初期,AI 可能会基于单一信号做出判断,例如将短期热度误认为趋势信号,或在方向上出现频繁切换。但随着使用的深入,这些偏差逐渐被修正,使其决策逐步集中在更符合策略预期的范围内。

3、行为蒸馏定交易风格

在完成数据输入与决策框架的建立之后,这套系统并没有停留在“标准化判断”的层面,而是进一步引入了个体行为的蒸馏。操作者将自身以及 X 上一些其他博主的推特内容输入系统,使 AI 能够学习具体的表达方式。让 AI 不再是冰冷的交易机器,至少从表达层面上来看是更人性化了。

如果把整个过程拆开来看,这更像是在“造一个人”。

从最初的数据喂养搭建骨架,让它理解市场在发生什么;到通过不断纠偏与约束形成结构,使其具备稳定的判断边界;再到行为蒸馏填充细节,让它逐渐拥有接近人类的决策路径与偏好。

最终形成的,已经不只是一个执行工具,而是一个能够在复杂市场中持续做出一致选择的“拉哪”。

它不依赖情绪,也不追求预测,而是用一套被反复验证过的方式,去参与市场、放大结果。

黄仁勋播客实录:英伟达的护城河,比芯片深得多

视频标题:Jensen Huang: – Will Nvidia』s moat persist?

视频作者:Dwarkesh Patel

编译:Peggy,BlockBeats

编者按:当外界仍在讨论「英伟达的护城河是否来自供应链」时,这场对话认为,真正难以复制的,并非芯片本身,而是将「电子转化为 Token」的整套系统能力——即从计算架构、软件体系到开发者生态的协同运作。

本文编译自 Dwarkesh Patel 与 Jensen Huang(黄仁勋)的对谈。Dwarkesh Patel 是当下硅谷最受关注的科技播客主持人之一,主理 YouTube 频道 Dwarkesh Podcast,以深度研究型访谈见长,长期对话 AI 研究者与科技产业核心人物。

右侧为 Dwarkesh Patel,左侧为 Jensen Huang

围绕这一核心,这场对谈可以从三个层面来理解。

其一,是技术与产业结构的变化。

英伟达的优势并不止于硬件性能,而在于 CUDA 所承载的开发者生态,以及围绕计算栈形成的路径依赖。在这一体系中,算力不再是唯一变量,算法、系统工程、网络与能效共同决定了 AI 的推进速度。这也引出一个重要判断:软件不会因 AI 而被简单「商品化」,相反,随着 Agent 的普及,工具调用将呈指数级增长,软件的价值反而被进一步放大。

其二,是商业边界与策略选择。

面对不断扩张的 AI 产业链,英伟达选择「做必要的一切,但不做全部」。它不进入云计算,也不进行过度垂直整合,而是通过投资与生态扶持放大整体市场规模。这种克制,使其既保持了关键控制力,又避免成为生态的替代者,从而将更多参与者纳入其技术体系之中。

其三,是关于技术扩散与产业格局的分歧。

对话中最具张力的部分,并不在于具体结论,而在于如何理解「风险」本身。一种观点强调算力领先所带来的先发优势,另一种则更关注技术扩散过程中生态与标准的长期归属。相较于短期能力差距,更关键的问题或许在于:未来的 AI 模型与开发者,究竟运行在哪一套技术体系之上。

换句话说,这场竞争的终局,不只是「谁率先做出更强的模型」,而是「谁定义了模型运行的基础设施」。

在这个意义上,英伟达的角色,已不再只是芯片公司,而更接近 AI 时代的「底层操作系统提供者」——它试图确保,无论计算能力如何扩散,价值生成的路径,仍然围绕自身展开。

以下为原文内容(为便于阅读理解,原内容有所整编):

TL;DR

·英伟达的护城河不在「芯片」,而在「从电子到 Token 的整套系统能力」。核心不是硬件性能,而是把计算转化为价的全栈能力(架构 + 软件 + 生态)。

·CUDA 的本质优势不是工具,而是全球最大 AI 开发者生态。开发者、框架、模型全部绑定在同一技术栈上,形成难以替代的路径依赖。

·AI 竞争的关键不只是算力,而是「计算栈 × 算法 × 系统工程」的组合。架构、网络、能效、软件协同带来的提升,远超单纯制程进步。

·算力瓶颈是短期问题,供给会在 2–3 年内被需求信号驱动补齐。真正的长期约束不是芯片,而是能源与基础设施。

·AI 软件不会被商品化,反而会因 Agent 爆发带来工具使用的指数级增长。未来不是软件变便宜,而是软件调用次数暴涨。

·不做云是英伟达的核心策略:做「必要的一切」,但不吞掉整个价值链。通过投资与生态扶持,而不是垂直整合,放大整体市场规模。

·真正的战略风险不是对手获得算力,而是全球 AI 生态不再基于美国技术栈。一旦模型与开发者迁移,长期技术标准与产业主导权将随之转移。

访谈内容

英伟达护城河在哪里:供应链,还是「电子到 Token」的控制权?

Dwarkesh Patel(主持人):

我们已经看到,很多软件公司的估值出现了下滑,因为大家预期 AI 会把软件变成一种标准化商品。还有一种可能略显天真的理解方式,大致是这样:你看,从设计文件(GDS2)交给台积电,台积电负责制造逻辑芯片、晶圆,构建开关电路,然后再和 SK 海力士、美光、三星生产的 HBM 一起封装,最后送到 ODM 去组装成整机机架。

注:HBM(High Bandwidth Memory,高带宽内存)是一种专门为高性能计算和 AI 设计的先进内存技术;ODM(Original Design Manufacturer,原始设计制造商)是指不仅负责生产,还负责产品设计的代工厂商

所以,从这个角度看,英伟达本质上是在做软件,而制造是由别人完成的。如果软件被商品化了,那英伟达也会被商品化。

Jensen Huang(黄仁勋,英伟达 CEO):

但归根结底,总得有一个过程,把电子转化为 token。从电子到 token,并让这些 token 随时间变得更有价值,这种转化我认为很难被完全商品化。

从电子到 token 的转化,本身就是一段非常非凡的过程。而让一个 token 更有价值,就像让一个分子比另一个分子更有价值一样,是让一个 token 比另一个 token 更有价值。

在这个过程中,包含了大量的艺术、工程、科学和发明,才让这个 token 具备价值。

显然,我们正在实时地观察这一切发生。所以这个转化过程、制造过程,以及其中涉及的各种信号,其实远远没有被完全理解,这段旅程也远未结束。所以我不认为那种情况会发生。

当然,我们会让它变得更高效。事实上,你刚才描述问题的方式,其实就是我对英伟达的一个心智模型:输入是电子,输出是 token,中间这一段就是英伟达。

我们的工作,是在「尽可能做必要的事情,同时尽可能少做不必要的事情」,以实现这种转化,并让它具备极高的能力。

我说的「尽可能少做」,是指凡是我们不需要自己做的部分,我们就会和别人合作,把它纳入我们的生态。如果你看今天的英伟达,我们在上游供应链和下游供应链,可能都拥有规模最大的合作生态之一。从计算机厂商、应用开发者,到模型开发者——你可以把 AI 看作一个「五层蛋糕」。而我们在这五个层级上都有生态布局。

相关阅读:《英伟达黄仁勋最新文章:AI 的「五层蛋糕」

所以我们尽量少做,但我们必须做的那一部分,其实是极其困难的。而我不认为那一部分会被商品化。

事实上,我也不认为企业软件公司本质上是在做「工具制造」。不过现实是,今天大多数软件公司确实是工具提供者。

当然也有例外,有些是在做工作流系统的编码与固化,但很多公司本质上是工具公司。

比如 Excel 是工具,PowerPoint 是工具,Cadence 做的是工具,Synopsys 也是工具。

Jensen Huang:

而我看到的趋势,恰恰和很多人的看法相反。我认为 agent 的数量会指数级增长,工具的使用者数量也会指数级增长。

各种工具的调用实例数量也很可能会激增。比如 Synopsys Design Compiler 的使用实例,很可能会大幅增长。

会有大量 agent 使用 floor planner、版图工具、设计规则检查工具。

今天,我们受限于工程师的数量;而明天,这些工程师会被大量 agent 支持,我们将以前所未有的方式去探索设计空间。当你用上今天这些工具时,这种变化会非常明显。

工具的使用会推动这些软件公司实现爆发式增长。这种情况之所以还没有发生,是因为现在的 agent 还不够擅长使用工具。

所以,要么这些公司自己去构建 agent,要么 agent 本身变得足够强,能够使用这些工具。我认为最终会是两者的结合。

Dwarkesh Patel

我记得在你们最新的披露中,你们在边界组件、内存、封装等方面有接近 1000 亿美元的采购承诺。而 SemiAnalysis 的报告认为,这个数字可能会达到 2500 亿美元。

一种解读是,英伟达的护城河在于你们锁定了未来多年这些稀缺组件的供给。也就是说,别人可能也能做加速器,但他们能拿到足够的内存吗?能拿到足够的逻辑芯片吗?

这是不是英伟达未来几年的核心优势?

Jensen Huang:

这是我们能做到、但别人很难做到的一件事。我们之所以能在上游做出巨大的承诺,一部分是显性的,也就是你提到的这些采购承诺;另一部分是隐性的。

比如,上游很多投资其实是我们的供应链伙伴做的,因为我会对他们的 CEO 说:让我告诉你这个行业会有多大,让我解释为什么会这样,让我和你一起推演,让我告诉你我看到的是什么。

通过这样的过程——传递信息、激发愿景、建立共识——我在和上游不同行业的 CEO 对齐,他们才愿意去做这些投资。

那为什么他们愿意为我投资,而不是为别人?因为他们知道,我有能力买下他们的产能,并通过我的下游把它消化掉。正是因为英伟达的下游需求和供应链规模如此之大,他们才愿意在上游进行投资。

你看 GTC,大会的规模让很多人感到震撼。它本质上是一个 360 度的 AI 宇宙,把整个行业聚在一起。大家聚在一起,是因为他们需要彼此看见。我把他们聚在一起,让上游看到下游,下游看到上游,同时让所有人看到 AI 的进展。

更重要的是,他们可以接触到 AI 原生公司和初创企业,看到正在发生的各种创新,从而亲眼验证我所说的那些判断。

所以我花了很多时间,直接或间接地向我们的供应链和生态伙伴解释眼前的机会。很多人会说,我的 keynote 不像传统发布会那样一个接一个宣布产品,而是有一部分听起来像是在「上课」。而这其实正是我的目的。

我需要确保整个供应链——无论上游还是下游——都理解:接下来会发生什么、为什么会发生、什么时候发生、规模会有多大,并且能够像我一样系统性地去推理这些问题。

所以你刚才说的那种「护城河」,确实存在。如果未来几年这个市场达到万亿美元规模,我们有能力去构建支撑它的供应链。就像现金流一样,供应链也有流动和周转。如果一个架构的业务周转不够快,没有人会为它建立供应链。我们之所以能维持这样的规模,是因为下游需求极其强劲,而且大家都能看到这一点。

正是这一点,让我们能够以现在这样的规模去做这些事情。

Dwarkesh Patel

我还是想更具体地理解一下,上游能不能跟得上。过去很多年,你们的收入基本是逐年翻倍,提供给全球的算力规模甚至是三倍增长。

Jensen Huang:

而且是在这个体量下继续翻倍。

Dwarkesh Patel

对。所以如果你看逻辑芯片,比如你们是台积电 N3 制程最大的客户之一,在 N2 上也是主要客户之一。

根据一些分析,今年 AI 可能会占 N3 产能的 60%,明年甚至可能达到 86%。

注:N3 指的是 TSMC 的 3 纳米(3nm)制程节点(process node),可以理解为台积电当前一代最先进的芯片制造工艺之一

那在你已经占据这么大比例的情况下,你怎么还能继续翻倍?而且是每年都翻倍?我们是不是进入了一个阶段,AI 算力的增长必须因为上游限制而放缓?有没有办法绕开这些限制?我们到底要怎么做到每年建出两倍的晶圆厂?

Jensen Huang:

在某些时刻,瞬时需求确实会超过整个行业的供给,无论是上游还是下游。而且在某些情况下,我们甚至会被水管工的数量限制住——这是真的发生过的。

Dwarkesh Patel :

那明年的 GTC 应该邀请水管工了。

Jensen Huang:

对,这其实是个好现象。你希望处在这样一个市场里:瞬时需求是大于整个行业总供给的。反过来当然就不太好了。

如果两者差距太大,某一个具体环节、某一个组件成为明显瓶颈,整个行业就会一拥而上去解决它。比如说,我注意到现在大家已经不太讨论 CoWoS 了。原因是过去两年,我们对它进行了极大规模的投入和扩展,翻了好几倍。

现在我觉得整体已经处在一个比较好的状态。台积电也已经意识到,CoWoS 的供应必须跟上逻辑芯片和内存的需求增长。所以他们在扩展 CoWoS,同时也在扩展未来的先进封装技术,而且是按照和逻辑芯片同样的节奏在扩展。

这非常重要,因为过去 CoWoS 和 HBM 内存都更像是「特种能力」,但现在已经不是了。现在大家已经意识到,它们是主流计算技术的一部分。

同时,我们现在也更有能力去影响更大范围的供应链。在过去,在 AI 革命刚开始的时候,我现在说的这些判断,其实五年前就已经在讲了。

当时有些人相信并投入了,比如美光的 Sanjay 团队。我至今还记得那次会议,我当时非常清楚地讲了未来会发生什么、为什么会发生,以及今天这些结果的预测。他们当时选择大幅加码,我们也和他们建立了合作关系。在 LPDDR、HBM 等多个方向上,他们都进行了投入,这对他们来说显然带来了很大的回报。也有一些公司是后来才跟上的,但现在大家都已经进入这个阶段了。

所以我认为,每一代技术、每一个瓶颈,都会得到大量关注。而现在,我们已经在提前几年「预取」这些瓶颈。比如我们和 Lumentum、Coherent,以及整个硅光(silicon photonics)生态的合作。过去几年,我们实际上重塑了整个生态和供应链。

在硅光方面,我们围绕台积电建立了完整的供应链,与他们合作开发技术,发明了很多新的技术,并把这些专利授权给供应链,保持生态的开放。我们通过发明新技术、新工作流程、新测试设备(包括双面探测等),投资相关公司、帮助它们扩产,来为供应链做准备。

所以你可以看到,我们是在主动塑造这个生态,让供应链能够支撑未来的规模。

Dwarkesh Patel:

听起来有些瓶颈比其他的更容易解决。比如说,相比扩展 CoWoS 更难的那些

Jensen Huang:

我刚才其实举的是最难的那个例子。

Dwarkesh Patel:

哪个?

Jensen Huang:

水管工。对,是真的。我刚才说的是最难的那个——水管工和电工。原因在于,这也让我对一些「末日论者」的说法有点担忧,他们总是在谈工作会消失、岗位会被替代。如果我们因此劝人不要去做软件工程师,那未来就真的会缺软件工程师。

类似的预测,十年前也出现过。当时有人说:「无论你做什么,都不要去当放射科医生。」你现在还能在网上找到那些视频,说放射科会是第一个被淘汰的职业,世界将不再需要放射科医生。但现实是,我们现在反而缺放射科医生。

Dwarkesh Patel:

好,那回到刚才的问题:有些环节可以扩展,有些不行。那具体来说,逻辑芯片的产能怎么翻倍?毕竟真正的瓶颈在这里,内存和逻辑都是限制因素。那 EUV 光刻机呢?你怎么做到每年把它的数量也翻一倍?

Jensen Huang:

这些都不是做不到的事情。确实,快速扩产不容易,但在两到三年内把这些事情做到,其实并不难。关键是要有明确的需求信号。一旦你能造出一台,就能造出十台;一旦能造出十台,就能造出一百万台。所以这些东西本质上并不难复制。

Dwarkesh Patel:

那你会把这种判断传达到供应链多深?比如你会不会去找 ASML,说:如果我往后三年看,为了让英伟达年收入达到 2 万亿美元,我们需要更多的 EUV 光刻机?

Jensen Huang:

有些我会直接做,有些是间接推动。如果我能说服台积电,那 ASML 自然也会被说服。所以我们要识别关键的瓶颈点。但只要台积电相信这个趋势,几年之后你就会有足够的 EUV 设备。

我的意思是,没有任何一个瓶颈会持续超过两到三年,没有一个。

与此同时,我们也在提升计算效率。从 Hopper 到 Blackwell,大约提升了 10 倍、20 倍,有些情况下甚至达到 30 到 50 倍。我们也在不断提出新的算法。因为 CUDA 足够灵活,我们可以开发出各种新方法,在扩充产能的同时提升效率。

所以这些事情都不会让我担心。真正让我担心的,是我们下游之外的因素,比如能源政策。没有能源,你就无法扩张;没有能源,你就无法建立一个产业;没有能源,你就无法建立一个全新的制造业体系。

现在我们想推动美国再工业化,想把芯片制造、计算机制造、封装带回美国,同时建设电动车、机器人这些新产业。当我们在建设 AI 工厂时,这些都离不开能源,而能源相关的建设周期很长。相比之下,增加芯片产能,是一个两三年的问题;增加 CoWoS 产能,也是两三年的问题。

Dwarkesh Patel:

挺有意思的。我感觉我采访过的一些嘉宾,给出的判断正好相反。只是这个问题上,我确实没有足够的技术背景来做判断。

Jensen Huang:

不过,好的一点是,你现在是在和专家对话。

Google 的 TPU 会动摇英伟达的地位吗?

Dwarkesh Patel:

对,确实。我想问一下你的竞争对手。如果看 TPU,可以说现在全球前三的大模型里,有两个——Claude 和 Gemini——是用 TPU 训练的。这对英伟达未来意味着什么?

注:TPU(Tensor Processing Unit,张量处理单元)是由 Google 专门为人工智能(尤其是深度学习)设计的一类专用芯片

Jensen Huang:

我们做的是完全不同的东西。英伟达构建的是「加速计算」(accelerated computing),而不是张量处理单元(TPU)。

加速计算可以用于各种各样的任务,比如分子动力学、量子色动力学,也用于数据处理、数据框架、结构化数据、非结构化数据,还用于流体力学、粒子物理,当然也包括 AI。所以,加速计算的应用范围要广得多。

虽然现在大家的讨论集中在 AI 上,AI 确实非常重要、影响也很大,但「计算」本身的范围要比 AI 广得多。英伟达所做的,是把计算方式从通用计算重新发明为加速计算。我们的市场覆盖范围远远大于任何 TPU 或其他专用加速器所能覆盖的范围。

如果看我们的定位,我们是唯一一家可以加速各种类型应用的公司。我们拥有庞大的生态系统,各种框架和算法都可以运行在英伟达平台上。而且,我们的计算机系统是为「由他人来运营」而设计的。任何运营者都可以购买我们的系统来使用。

大多数自研系统并不是为他人使用而设计的,你基本上必须自己来运营它们,因为它们从一开始就没有被设计成足够灵活,供他人使用。正因为我们的系统任何人都可以运营,我们进入了所有主要平台,包括 Google、Amazon、Azure、OCI 等。

无论你是为了出租算力来运营系统,还是自己使用系统,如果你要做租赁业务,你就必须拥有一个覆盖多个行业的大规模客户生态来承接这些需求。如果你是为了自己使用而运营系统,我们当然也有能力帮助你完成这件事。比如说,Elon 的 xAI。

因为我们可以让任何行业、任何公司的运营者都能够使用我们的系统,你可以用它来为像 Lilly 这样的公司构建超级计算机,用于科学研究和药物发现。我们可以帮助他们运营自己的超级计算机,并将其用于整个药物研发和生物科学的各种应用场景,而这些都是我们可以加速的领域。

所以我们可以覆盖大量应用场景,而 TPU 做不到这一点。英伟达构建的 CUDA,本身也可以作为一个非常出色的张量处理平台,但它不仅仅是这样,它覆盖了数据处理、计算、AI 等整个生命周期。所以我们的市场机会要大得多,覆盖范围也更广。而且因为我们现在基本支持全球所有类型的应用,你可以在任何地方部署英伟达系统,并且可以确信一定会有客户来使用它。

所以这本质上是完全不同的一种东西。

Dwarkesh Patel :

这个问题会稍微长一点。

你们现在的收入非常惊人,而且这些收入主要并不是来自制药或量子计算。你们不是靠这些业务每季度赚 600 亿美元,而是因为 AI 是一项前所未有、而且正在以前所未有速度推进的技术。

所以问题是:如果只看 AI,本身最优的方案是什么?我不是做底层的,但我和一些 AI 研究员朋友聊过,他们会说:当我使用 TPU 时,它是一个很大的阵列,非常适合做矩阵乘法;而 GPU 更灵活,适合处理大量分支和不规则内存访问。

但如果你看 AI,本质上是不是就是一遍又一遍、非常可预测的矩阵乘法?那你其实不需要为 warp 调度、线程切换、内存 bank 等等这些功能去占用芯片面积。所以 TPU 在当前这波算力需求和收入增长中,针对主要应用场景是高度优化的。

你怎么看这个观点?

Jensen Huang:

矩阵乘法确实是 AI 中一个重要部分,但它并不是 AI 的全部。

如果你想提出一种新的 attention 机制,或者用不同方式来做计算;如果你想设计一种全新的架构,比如 hybrid SSM;如果你想构建一种融合 diffusion 和 autoregressive 的模型——你需要的是一个通用可编程的架构,而我们可以运行你能想到的任何东西。

这就是我们的优势,它让新算法的发明变得容易得多。正因为这是一个可编程系统,而不断发明新算法,正是 AI 能够如此快速进步的原因。

TPU 和其他任何硬件一样,也受到摩尔定律的影响。我们知道摩尔定律大约每年带来 25% 的提升。所以如果你想实现 10 倍、100 倍的跃升,唯一的方式是每年都从根本上改变算法以及它的计算方式。

这正是英伟达的核心优势。

我们之所以能让 Blackwell 相比 Hopper 实现大幅提升——我当时说是 35 倍——当我第一次宣布 Blackwell 的能效会比 Hopper 提高 35 倍时,没有人相信。

后来 Dylan 写了一篇文章,说其实我还保守了,真实提升更接近 50 倍,而这种提升不可能仅靠摩尔定律实现。我们解决这个问题的方法,是引入新的模型结构,比如 MoE,并把计算进行并行化、解耦、分布式处理,扩展到整个计算系统中。如果没有能力深入到底层、用 CUDA 去开发新的计算内核,这些是很难做到的。

注:指 Dylan Patel 半导体与 AI 基础设施领域的知名分析师,研究机构 SemiAnalysis 创始人

所以我们的优势在于:架构的可编程性,以及英伟达作为一家高度协同设计的公司。我们甚至可以把一部分计算卸载到互连架构中,比如 NVLink,或者网络层,比如 Spectrum-X。也就是说,我们可以在处理器、系统、互连、软件库、算法这些层面同时推动变化。所有这些都是同时完成的。如果没有 CUDA 来支撑这一切,我甚至不知道该从哪里开始。

Dwarkesh Patel:

这也引出了一个关于英伟达客户结构的问题:如果你们 60% 的收入来自这五大超大规模云厂商(hyperscalers),在另一个时代、面对不同类型的客户,比如做实验的教授,他们会非常依赖 CUDA。他们不能用别的加速器,只能用 PyTorch + CUDA,并且需要一切都被优化好。

但如果是这些超大规模云厂商,他们有能力自己写内核。事实上,他们也必须这么做,去榨取最后那 5% 的性能。Anthropic、Google 很多时候在用自研加速器或者 TPU 来训练。即使是 OpenAI,在使用 GPU 时也会用 Triton,他们会说:我们需要自己的 kernel。于是他们会直接写 CUDA C++,而不是用 cuBLAS、NCCL 这些库,并且构建自己的软件栈,甚至可以编译到其他加速器上。

所以,对你们的大多数客户来说,他们确实可以、也确实在替代 CUDA。那 CUDA 到底在多大程度上,仍然是推动前沿 AI 必须依赖英伟达的关键?

Jensen Huang:

首先,CUDA 是一个非常丰富的生态系统。如果你要在任何一台计算机上开发,从 CUDA 开始是一个非常明智的选择。因为这个生态非常丰富,我们支持所有主流框架。

如果你需要写自定义 kernel,比如 Triton,我们在 Triton 的后端贡献了大量英伟达技术,我们也非常乐于帮助各种框架变得更好。现在有很多很多框架,比如 Triton、vLLM、SG Lang,还有更多。

随着后训练(post-training)和强化学习的发展,这一领域正在快速扩张。比如你有 Vairal、NeMo RL,以及一系列新的框架。如果你要在某个架构上开发,从 CUDA 开始是最合理的,因为你知道生态是成熟的。当出现问题时,更可能是你自己的代码出了问题,而不是底层那一大堆代码。

不要忘了,这些系统背后涉及的代码规模是非常巨大的。当系统出问题时,你会想知道问题是在你这里,还是在计算平台本身。

你当然更希望问题是在你自己,而不是在计算平台。当然,我们自己也有很多 bug,但我们的系统已经非常成熟,你至少可以在一个可靠的基础上继续构建。

第二点是,安装基数的规模。如果你是开发者,无论你在做什么,最重要的一件事就是「安装基数」(install base)。你希望你的软件能运行在尽可能多的计算机上。你不是为了自己写软件,你是为你的整个集群,甚至为整个行业写软件,因为你是一个框架开发者。

英伟达的 CUDA 生态,本质上是我们最重要的资产。现在全球已经有数亿块 GPU。所有云厂商都有,从 V100、A100、H100、H200,到 L 系列、P 系列,各种规格都有。

而且它们存在于各种不同的形态中。如果你是一家机器人公司,你会希望 CUDA 能直接运行在机器人本体上。我们基本无处不在。

这意味着,一旦你开发了软件或模型,它可以在任何地方使用。所以这个安装基数本身的价值是极其巨大的。

最后一点是,部署位置的灵活性。我们存在于所有云平台中,这一点使我们具有独特性。作为 AI 公司或开发者,你并不确定最终会和哪一家云厂商合作,也不确定你的系统会运行在哪里。而我们在所有地方都可以运行,包括本地部署(on-prem)。

所以,生态的丰富性、安装基数的规模,以及部署位置的灵活性,这三者结合在一起,是非常有价值的。

Dwarkesh Patel:

这很有道理。但我比较好奇的是,这些优势对你们的主要客户来说,是否真的那么重要。确实有很多人会受益于这些优势,但那些能够自己构建软件栈的人——也就是贡献你们大部分收入的那批客户——尤其是在一个 AI 在「可验证反馈闭环」任务上越来越强的世界里,比如强化学习场景,像 attention 或 MLP 这样的 kernel 优化,其实是一个非常容易验证的反馈循环。

那这些超大规模云厂商,是否完全可以自己写这些 kernel?当然,他们可能仍然会因为性价比选择英伟达。但问题在于,这最终会不会变成一个简单的比较:谁能提供更好的规格?比如,在单位成本下,谁能提供更高的算力(FLOPs)和更高的内存带宽?因为过去英伟达在硬件和软件层面都拥有极高的利润率(70% 以上),很大程度上是因为 CUDA 这个护城河。

那问题是,如果大多数客户都可以自己构建软件栈,而不依赖 CUDA,这样的利润率还能维持吗?

Jensen Huang:

我们投入到这些 AI 实验室的工程师数量是非常惊人的,和他们一起工作、帮他们优化整个技术栈。原因是,没有人比我们更了解我们的架构。而这些架构并不像 CPU 那样通用。

CPU 有点像一辆「家用车」,你可以把它理解成一辆巡航车,不会开得特别快,但每个人都能很好地驾驶,有巡航控制,一切都很简单。但英伟达的 GPU 加速器更像是 F1 赛车。我可以想象每个人都能把它开到 100 英里每小时,但要把它真正推到极限,是需要相当专业能力的。

而我们使用大量 AI 来生成这些 kernel。我非常确定,在相当长一段时间内,我们仍然是不可或缺的。我们的专业能力可以帮助这些 AI 实验室的合作伙伴,很容易地把他们的性能再提升 2 倍。很多时候,我们优化完他们的技术栈或某个 kernel 后,他们的模型可以加速 3 倍、2 倍,甚至 50%。这是一个非常大的提升,尤其是当你考虑到他们拥有大量 Hopper 和 Blackwell 集群时。

如果你把性能提升一倍,那就意味着收入直接翻倍。这是直接对应收入的。英伟达的计算栈,在全球范围内的 TCO(总拥有成本)表现是最优的,没有任何对手。没有任何一家公司能向我证明,有哪个平台在性能/TCO 比上比我们更好。一个都没有。而且这些基准测试是公开存在的。

Dylan 说得没错。Inference Max 是公开的,任何人都可以用。但没有任何 TPU 团队愿意用它来展示他们的推理成本优势。这很难做到,没有人愿意出来证明。

MLPerf 也是一样。我很欢迎他们来展示他们一直声称的 40% 优势。我很想看到他们证明 TPU 在成本上的优势。在我看来,这没有意义,从基本原理上讲就说不通。完全说不通。

所以我认为,我们之所以成功,根本原因是我们的 TCO 非常优秀。

另外一点,你说我们 60% 的客户来自前五大厂商,但其中大部分业务其实是面向外部客户的。比如,在 AWS 上,英伟达的算力大多数是提供给外部客户,而不是 AWS 自己用。在 Azure 上,我们的客户基本也都是外部客户;在 OCI 上也是如此。他们之所以选择我们,是因为我们的覆盖范围非常广。

我们可以把全球最优质的客户带给他们,而这些客户本身就是建立在英伟达平台上的。而这些公司之所以建立在英伟达上,是因为我们的覆盖范围和灵活性都非常强。

所以我认为,这个飞轮在起作用:安装基数、架构的可编程性、生态的持续积累。再加上现在全球有成千上万家 AI 公司。如果你是其中一家 AI 初创公司,你会选择哪种架构?你会选择最普及的、安装基数最大的、生态最丰富的架构。这就是这个飞轮的逻辑。

所以原因在于:

·第一,我们的单位成本性能(performance per dollar)非常高,因此 token 成本最低;

·第二,我们的单位功耗性能(performance per watt)是全球最高的;如果合作伙伴建设一个 1GW 的数据中心,它必须产出最多的 token,也就是最多的收入。而我们的架构在单位功耗下可以产生最多的 token。

·第三,如果你的目标是出租算力,我们拥有全球最多的客户。

这就是这个飞轮成立的原因。

Dwarkesh Patel:

很有意思。我觉得问题的核心在于,这个市场结构到底是什么样的。即使存在很多公司,也完全可能出现一种情况:有成千上万家 AI 公司,它们大致平分算力。

但如果实际情况是,通过这些超大规模云厂商,真正使用算力的是像 Anthropic、OpenAI 这样的基础模型公司,而它们有能力让不同加速器都跑起来。

Jensen Huang:

我认为你的这个前提是错的。

Dwarkesh Patel :

也许吧。那我换个问法,如果这些关于性能和成本的说法都成立,那为什么像 Anthropic 这样的公司,前几天刚刚宣布和博通、Google 达成多吉瓦级别的 TPU 合作?而且它们大部分算力都来自这些体系。对 Google 来说,TPU 本身就是主要算力来源。所以如果看这些大型 AI 公司,曾经是完全用英伟达,现在已经不是了。

如果这些优势在理论上成立,那为什么它们还会选择其他加速器?

Jensen Huang:

Anthropic 是一个比较特殊的例子。如果没有 Anthropic,TPU 的增长几乎不会存在。TPU 的增长几乎完全来自 Anthropic。同样,如果没有 Anthropic,训练需求的增长也几乎不存在。

这是一个非常清楚的事实。并不是存在大量类似的机会,实际上只有一个 Anthropic。

Dwarkesh Patel:

但 OpenAI 也和 AMD 有合作,他们还在开发自己的 Titan 加速器。

注:AMD(Advanced Micro Devices)是一家美国半导体公司,主要设计计算芯片,是英伟达和英特尔的重要竞争对手

Jensen Huang:

但他们绝大多数还是在用英伟达。我们也会继续大量合作。我并不会因为别人尝试其他方案而感到不满。如果他们不去尝试其他方案,又怎么知道我们的方案有多好?

有时候确实需要通过比较来重新确认这一点。而我们也必须不断证明我们配得上现在的位置。

市场上一直都有各种各样的说法。你可以看看有多少 ASIC 项目被取消了。仅仅因为你开始做 ASIC,并不意味着你能做出比英伟达更好的东西。

事实上,这并不容易。甚至可以说,从理性上看,这并不太成立。除非英伟达真的在某些方面犯了严重错误。但考虑到我们的规模、我们的速度——我们是全球唯一一家每年都在实现大幅跃迁的公司。

Dwarkesh Patel:

他们的逻辑是:不需要比英伟达更好,只要不要比英伟达差 70% 就可以,因为他们认为你们的利润率有 70%。

Jensen Huang:

但别忘了,即使是 ASIC,利润率其实也很高。英伟达的利润率大约是 60%–70%,而 ASIC 的利润率可能也有 65%。那你真正节省了多少呢?

你总是要付钱给某一方。所以从我看到的情况来看,这些基础(ASIC)业务的利润率其实也非常高,而且他们自己也这么认为,并且对此相当自豪。

很早以前,我们其实没有能力去做这件事。而且说实话,当时我并没有真正深刻理解,构建一个像 OpenAI 或 Anthropic 这样的基础模型实验室到底有多困难。也没有完全意识到,它们实际上需要来自供应方的大规模投资支持。

当时我们没有能力去做那种数十亿美元级别的投资,比如投资 Anthropic,让他们使用我们的算力。但 Google 和 AWS 可以,他们在一开始就投入了巨额资金,而作为回报,Anthropic 使用他们的算力。

我们当时既没有能力这样做,我会说,这是我的一个失误:我没有真正意识到,他们其实没有其他选择。风险投资机构不可能投 50 亿、100 亿美元去支持一个 AI 实验室,并期望它成长为 Anthropic。

这是我的判断失误。但即便当时我意识到了,我也不认为我们在那个阶段有能力去做这件事。

不过我不会再犯同样的错误了。我很高兴能投资 OpenAI,也很高兴帮助他们扩展,我认为这是必要的。当后来 Anthropic 来找我们时,我也很高兴成为投资人,帮助他们发展。

只是当初那个时间点,我们确实做不到。如果可以重来,如果当时英伟达已经像现在这样强大,我会非常愿意去做这些事情。

为什么英伟达不做「云」?

Dwarkesh Patel:

这很有意思。多年来,英伟达一直是在 AI 领域「卖铲子赚钱」的公司,而且赚了很多钱。而现在你们开始把这些钱投入进去。有报道称,你们在 OpenAI 上投资了 300 亿,在 Anthropic 上投资了 100 亿。而这些公司的估值还在持续上涨。

所以,如果回头看过去几年,你们给了他们算力,也看到了趋势,而当时它们的估值只有现在的十分之一,甚至一年前也还远低于现在。而你们当时已经有大量现金。

其实存在一种可能:英伟达自己成为基础模型公司,或者更早在更低估值时进行大规模投资,类似你现在做的这些事情。

所以我确实很好奇,为什么没有更早这样做?

Jensen Huang:

我们是在「能够做的时候」立刻去做的。如果当时可以,我会做得更早。在 Anthropic 当初需要我们支持的时候,我就会去做。但当时我们确实没有那个能力。

这不在我们的能力范围之内,也不在我们的决策惯性之内。

Dwarkesh Patel:

是资金的问题,还是?

Jensen Huang:

对,是投资规模的问题。我们当时几乎没有对外投资的传统,更不用说那种规模的投资。而且我们也没有意识到这是必要的。

我当时的想法是,他们完全可以去找风险投资,就像其他公司一样。但他们要做的事情,其实是风险投资无法支持的。OpenAI 想做的事情,也不是风险投资能支持的。

这是我后来才意识到的。但这正是他们的聪明之处。他们当时就意识到,必须走那样一条路径。我很高兴他们这么做了。即使我们当时没能参与,导致 Anthropic 转向了其他合作方,我仍然认为这是好事。Anthropic 的存在,对整个世界都是好事,我为此感到高兴。有一些遗憾是可以接受的。

Dwarkesh Patel:

那问题还是会回到一点:既然现在你们已经有这么多现金,而且还在持续增长,那英伟达应该如何使用这些资金?

一种思路是,现在出现了一个中间层生态,帮这些 AI 实验室把资本开支(capex)转化为运营开支(opex),让他们可以租用算力。

因为 GPU 很贵,但随着模型进步,它们在生命周期中可以持续产生更高价值的 token。而英伟达本身有能力承担这些前期资本开支。比如有报道称,你们为 CoreWeave 提供了高达 63 亿美元的支持,并投资了 20 亿。

那为什么英伟达不自己成为云厂商?为什么不成为一个 hyperscaler,自建云并出租算力?毕竟你们有这个现金能力。

Jensen Huang:

这是一个公司的哲学问题,而且我认为这是一个明智的哲学:我们应该做「必要的尽可能多的事,同时做尽可能少的事」。

这意味着,在构建计算平台这件事上,如果我们不做,我真的相信这件事就不会被完成。

如果我们不承担这些风险,不去构建 NVLink,不去构建整个软件栈,不去打造这个生态,不去投入 20 年时间做 CUDA(其中大部分时间甚至是亏钱的),如果我们不做这些事情,没有人会做。如果我们不去构建这些 CUDA-X 的领域专用库——无论是光线追踪、图像生成,还是早期 AI 模型、数据处理、结构化数据、向量数据处理——如果我们不做,这些东西就不会存在。

我对此是完全确信的。我们甚至为计算光刻开发了一个库叫 cuLitho,如果我们不做,也不会有人去做。

所以,加速计算之所以能发展到今天这个程度,是因为我们做了这些事情。这就是我们应该全力投入去做的部分。

但与此同时,世界上已经有很多云厂商了。即使我们不做,也会有人来做。所以基于「做尽可能多必要的事,但尽可能少做其他事」的原则,这个理念在公司里一直存在。我做的每一个决策,都会从这个角度出发。

在云这个领域,如果我们当初不支持 CoreWeave,这些新型 AI 云(neocloud)可能不会存在。如果我们不支持他们,他们不会发展到今天这个规模。像 Nscale、Nebius 也是一样,如果没有我们的支持,他们不会走到现在。而现在,它们发展得都很好。

但这是不是一个我们应该亲自去做的业务?不是。我们还是坚持那个原则:做必要的事情,其他尽量少做。所以我们会投资生态,是因为我希望整个生态能够繁荣。我希望我们的架构能够连接尽可能多的行业、尽可能多的国家,让 AI 能够在全球范围内被构建出来,并且建立在美国的技术栈之上。

这是我们正在推进的愿景。

同时,你刚才提到,现在有很多优秀的基础模型公司,我们会尽量去投资它们。

还有一点是,我们不会去「挑选赢家」。我们希望支持所有人。这既是我们的业务需要,也是我们愿意去做的事情。所以当我投资其中一家公司时,我也会投资其他公司。

Dwarkesh Patel:

那为什么你们会刻意不去挑选赢家?

Jensen Huang:

因为这不是我们的职责。第一点。

第二点,当英伟达刚成立的时候,有大约 60 家图形公司,60 家做 3D 图形的公司。最后只有我们活了下来。如果你当时在这 60 家公司里选一家会成功的,英伟达很可能是最不被看好的那一家。

这在你那个年代之前,但当时英伟达的图形架构是完全错误的。不是有一点点偏差,而是从根本上就是错的。我们设计了一个开发者几乎不可能支持的架构,本来是注定不会成功的。我们是基于很合理的第一性原理推导出来的,但最终走到了错误的解。

所有人都认为我们不可能成功,但我们最后还是活下来了。所以我有足够的谦逊去承认这一点,不要去挑选赢家。要么让他们自己发展,要么就支持所有人。

Dwarkesh Patel:

有一点我没太理解。你说你们并不是刻意去优先支持这些新云厂商,但你刚刚也提到,如果没有英伟达,它们可能不会存在。那这两点是怎么同时成立的?

Jensen Huang:

首先,它们必须自己想要存在,并且主动来找我们寻求帮助。当它们有明确的意愿、有商业计划、有能力、有热情的时候——当然,它们本身也必须具备一定的能力——如果在起步阶段需要一些投资支持,我们会在那里。

但关键是,它们要尽快建立起自己的飞轮。你刚才的问题是,我们是否想进入融资业务?答案是不想。我们不想成为金融机构。市场上已经有很多做融资的人,我们更愿意和这些金融机构合作,而不是自己去做融资。

所以我们的目标,是专注在我们自己的事情上,让商业模式尽可能简单,同时支持整个生态。

Jensen Huang:

当像 OpenAI 这样的公司,在 IPO 之前需要 300 亿美元规模的投资时,而我们又非常相信他们——我个人非常相信他们已经是一个非凡的公司,并且会成为更加卓越的公司。这个世界需要他们存在,大家也希望他们存在,我也希望他们存在。他们具备所有成为赢家的要素,那我们就支持他们、帮助他们扩张。

所以,这类投资我们会去做,因为他们确实需要我们这样做。但我们的原则不是「尽可能多做」,而是「尽可能少做」。

Dwarkesh Patel:

这个问题可能有点显而易见,但过去很多年,我们一直处在 GPU 短缺的状态,而且随着模型变强,这种情况更明显了。

Jensen Huang:

是的,我们确实存在 GPU 短缺。

Dwarkesh Patel:

而英伟达被认为在分配这些稀缺资源时,并不是单纯按出价最高来分,而是会考虑,比如要确保这些新云厂商存在——给 CoreWeave 一些、给 Crusoe 一些、给 Lambda 一些。

首先,你认同这种说法吗?其次,这对英伟达有什么好处?

Jensen Huang:

我认为你的前提是错误的。当然,我们会非常谨慎地看待这些事情。

首先,如果你没有下采购订单(PO),再多的沟通都没有意义。所以第一点,我们会和所有客户一起努力做好需求预测,因为这些产品的生产周期很长,数据中心建设周期也很长。我们通过预测来对齐供需,这是第一件事。

第二,我们会尽可能和更多客户一起做预测。但最终,你还是必须下订单。如果你没有下订单,那我也无能为力。所以在某个阶段,就是「先下单先服务」。

但除此之外,如果你的数据中心还没准备好,或者某些关键组件还没准备好,导致你暂时无法部署系统,我们可能会优先服务其他客户。这只是为了最大化我们工厂的整体吞吐效率。

除了这种情况,优先级原则就是「先来先服务」。你必须下订单。如果你不下订单,那就没有办法。

当然,外界有很多故事,比如有人说 Larry 和 Elon 和我吃饭时请求 GPU——我们确实一起吃过饭,那是一次很愉快的晚餐,但他们从来没有「请求」过 GPU。他们只需要下订单就可以。一旦下单,我们就会尽最大努力提供产能。事情没有那么复杂。

Dwarkesh Patel:

所以听起来像是一个排队机制,取决于你什么时候下单、数据中心是否准备好。但这仍然不是单纯「出价最高者得」,对吗?

Jensen Huang:

我们从来不这样做。

Dwarkesh Patel:

从不按最高出价来分配?

Jensen Huang:

从不。因为这是很糟糕的商业做法。

你设定价格,客户决定买不买。我知道行业里有些公司会在需求上升时提高价格,但我们不会。这从来不是我们的做法。客户可以依赖我们。我更愿意成为一个可靠的存在,成为行业的基础。你不需要去猜测价格变化。

如果我给了你一个报价,那就是最终价格。即使需求暴涨,也不会改变。

Dwarkesh Patel:

那这也是你们和台积电关系稳定的原因之一,对吧?

Jensen Huang:

英伟达和台积电已经合作快 30 年了。英伟达和台积电之间甚至没有正式的法律合同,彼此之间更多是一种大致公平的默契。有时候我是对的,有时候我是错的;有时候我拿到了更好的条件,有时候条件没那么好。但整体来看,这段关系非常了不起,我可以完全信任他们,也可以完全依赖他们。

而且,对英伟达来说,有一点你是可以确定的:今年 Rubin 会非常出色,明年 Vera Rubin Ultra 会推出,再下一年 Feynman 会推出,再下一年——那个名字我还没公布。也就是说,每一年,你都可以信赖我们。你得去全世界再找一个 ASIC 团队,看看有没有哪一家能让你说:我可以把整个公司押上去,相信你每一年都会在这里支持我。

我的 token 成本会每年按一个数量级下降,我可以像相信时钟一样相信这件事。我刚才关于台积电也说了类似的话。历史上没有任何一家晶圆厂能让你这样说。

但今天,你可以对英伟达这样说。你可以每一年都信赖我们。

如果你想买 10 亿美元的 AI 工厂算力,没有问题;如果你想买 1 亿美元,也没有问题;如果你想买 1000 万美元,甚至只买一个机架,也没问题;就算你只想买一张显卡,也没问题。如果你想下一个 1000 亿美元的 AI 工厂订单,也没有问题。

今天,全世界只有我们这一家公司可以这样说。而我也可以对台积电这样说:我想买 10 亿美元,没有问题。我们只需要一起做好规划,走完该走的流程,做成熟企业都会做的那些事情。

所以,我认为,英伟达能够成为全球 AI 产业的基础,这个位置是我们花了几十年才走到的。这里面有巨大的投入、巨大的专注,而公司的稳定性与一致性,是非常重要的。

为什么英伟达拒绝「多路线下注」

Dwarkesh Patel :

这其实引出了一个很有意思的问题。我们之前聊过台积电、内存这些瓶颈。现在如果进入这样一个世界:你们已经占了 N3 的大部分产能,之后可能也会占 N2 的大部分产能。你会不会考虑回头去用 7 纳米之类的旧工艺节点的闲置产能?

比如 AI 的需求太大了,最先进制程的扩产又跟不上,那你们就用今天关于数值优化、系统设计的全部经验,重新做一个 Hopper 或者 Ampere 版本。你觉得这种情况会不会在 2030 年之前出现?

Jensen Huang:

没这个必要。原因是,每一代架构的进步都不只是晶体管尺寸的变化。你还在封装、堆叠、数值系统、系统架构上做了大量工程工作。等到你走到这一步,再回头去做一个旧节点版本,那需要投入的研发规模是没人负担得起的。我们能负担得起继续往前走,但我不认为我们负担得起回头走。

当然,如果做一个思想实验:假设有一天全世界都说,先进产能永远不可能再增加了。那我会不会立刻回去用 7 纳米?当然会,毫无疑问。

Dwarkesh Patel:

我之前和别人聊到一个问题:为什么英伟达不同时推进多个完全不同的芯片项目?比如你可以做一个像 Cerebras 那样的晶圆级架构,可以做一个像 Dojo 那样的大封装,也可以做一个不依赖 CUDA 的东西。

你们有资源,也有工程人才,可以并行做这些事。既然没人知道 AI 或架构未来到底会往哪走,为什么要把鸡蛋都放在一个篮子里?

Jensen Huang:

我们当然可以这么做。只是我们没有看到更好的方案。这些东西我们都模拟过了,在我们的仿真器里大概率都更差。所以我们不会去做。我们现在做的,就是我们真正想做、也认为最正确的那些项目。

当然,如果未来工作负载本身发生剧烈变化——我说的不是算法变化,而是工作负载真的变了,那我们也可能会加入其他类型的加速器。

比如最近我们加入了 Grok,我们会把 Grok 纳入 CUDA 生态。我们现在就在做这件事。这是因为 token 的价值已经变得非常高了,所以同一个模型、基于不同的响应速度,可能会对应不同的价格层级。

几年前,token 几乎是免费的,或者说便宜得几乎等于免费。但现在,不同客户对 token 的要求不一样。而且这些客户本身可以从中赚很多钱。比如说,对软件工程师来说,如果我能给他们更快响应的 token,让他们比今天更高效,那我是愿意为此付钱的。

但这样的市场,其实是最近才出现的。所以我认为,现在我们第一次真正有能力让同一个模型基于响应时间形成不同市场分层。

这也是为什么我们决定扩展这条帕累托前沿,去做一种「响应更快、但吞吐更低」的推理分支。因为过去,高吞吐总是最重要的。但我们现在认为,未来可能会出现一种高 ASP(高单价)的 token。即使工厂里的吞吐更低,单价也足以弥补它。

这就是我们这么做的原因。但如果只谈架构本身,我会说,如果我有更多钱,我会把更多钱投到现有架构上。

Dwarkesh Patel :

我觉得这种「极高溢价 token」以及推理市场分层的想法非常有意思。

最后一个问题。假设深度学习革命从来没有发生过,英伟达今天会在做什么?

Jensen Huang:

当然,游戏还是会做,但除此之外,还是加速计算。我们一直在做的,本来就是这个。

我们公司的基本前提是:摩尔定律会放缓。通用计算对很多事情都很好,但对很多计算任务来说并不是理想方案。所以我们把 GPU 这种架构和 CPU 结合起来,让它去加速 CPU 的工作负载。不同的代码 kernel、不同的算法,都可以被卸载到 GPU 上运行。这样一来,一个应用就可以加速 100 倍、200 倍。

那它能用在哪里?当然是工程、科学、物理、数据处理、计算机图形学、图像生成,各种地方。

所以即便今天 AI 不存在,英伟达依然会是一家非常大的公司。原因其实很根本:通用计算继续扩展的能力,已经基本走到头了。而提升性能的一种方式——不是唯一方式,但很重要的一种方式——就是做领域专用加速。

我们一开始切入的是计算机图形学,但还有很多其他领域。比如各种科学计算、粒子物理、流体模拟、结构化数据处理等等,各种不同类型的算法都会从 CUDA 中受益。

所以我们的使命一直都是把加速计算带给这个世界,推动那些通用计算做不到、或者无法扩展到足够能力级别的应用继续往前发展,帮助科学领域实现突破。我们最早的一些应用,就是分子动力学、能源勘探中的地震处理,当然还有图像处理。

所有这些领域,通用计算本身都太低效了。所以,是的,如果没有 AI,我会很难过。但正是因为我们在计算上的进步,我们把深度学习民主化了。我们让任何研究者、任何科学家、任何学生,在任何地方,都能用一台 PC、或者一块 GeForce 显卡,做出很惊人的科学研究。而这个最根本的承诺,从来没有变过,一点都没有。

所以如果你去看 GTC,你会发现最开始很大一部分内容其实根本不是 AI。无论是计算光刻、量子化学,还是数据处理,那些都和 AI 无关,但依然非常重要。我知道 AI 很有趣,也很令人兴奋。

但仍然有很多人在做非常重要、但与 AI 无关的工作。Tensor 也不是他们唯一的计算方式。而我们希望帮助所有这些人。

Dwarkesh Patel:

Jensen,非常感谢你。

Jensen Huang:

不客气,我很享受这次对话。

原文链接

头部加密VC集体缩水:a16z 加密基金管理规模暴跌40%,Multicoin腰斩

原文作者: Ben Weiss

原文编译: 深潮 TechFlow

导读: Fortune 记者从 SEC 拿到了一批未公开的加密 VC 财务披露文件,数据显示 Paradigm、Pantera、a16z crypto、Multicoin 等头部机构的管理资产规模(AUM)在 2025 年全线缩水。但缩水不全是坏事——a16z crypto 在市场高点把钱退给了 LP,首期基金 DPI 达到 5.4 倍。唯一逆势增长的是 Haun Ventures,靠 BVNK 被 Mastercard 收购押中了稳定币赛道。

加密 VC 的头部玩家没能躲过 2025 年的市场崩盘。

Fortune 记者 Ben Weiss 从美国证券交易委员会(SEC)拿到了一批此前未公开的投资顾问财务披露文件。数据很直接:Paradigm、Pantera Capital 这些顶级机构的 AUM 在 2025 年集体缩水。

图注:2021-2025 年头部加密 VC 管理资产规模(AUM)变化

制图:Ben Weiss / Fortune

但在开始列数字之前,有一个前提要先说清楚:AUM 不是衡量 VC 成败的好指标。它不反映新一轮融资、LP 退出分配、也不反映资本催缴。加密资产价格本身就剧烈波动——某个情绪不稳定的男人发一条推文就能让币价坐过山车(马斯克、特朗普、赵长鹏,随便挑一个)。老牌加密 VC 们经历过 2021 年 NFT 狂潮时的资产暴涨,也见过随后「加密寒冬」里的组合暴跌。

原文作者 Ben Weiss 也强调:真正的顶级投资者,最终是要把钱退给 LP 的。AUM 短期变动不等于业绩好坏。

搞清楚这个前提,来看具体数据。

a16z crypto:AUM 缩水近 40%,但钱退给了 LP

a16z crypto 旗下四只加密基金的 AUM 合计从 2024 年暴跌近 40%,降至 $95 亿。同一时期,母公司 Andreessen Horowitz 的资产管理规模膨胀到了 $1000 亿以上。

缩水的原因,一部分是这家机构开始把前三只基金的收益分配回 LP。据知情人士透露,a16z crypto 有意选择在 2025 年加密市场高点进行分配。

效果怎么样?根据 Newcomer 的数据,a16z 首只加密基金的净 DPI(分配对实缴资本比率)达到 5.4 倍。和 Carta 平台上 2018 年同期募集的其他 VC 基金相比,这个回报率相当亮眼。

换句话说,AUM 缩水这件事在 a16z crypto 身上,更多是「赚到钱、退给 LP」的结果,而不是「持仓暴跌」的结果。

Multicoin:AUM 腰斩至 $27 亿

Multicoin Capital 的命运和加密市场深度绑定。2021 年加密狂潮期间,它的 AUM 一年翻了接近三倍,逼近 $90 亿。FTX 崩盘后直接暴跌,之后两年又逐步反弹。

但 2025 年这一轮下跌又把它打回去了。从 2024 年到 2025 年,Multicoin 的 AUM 缩水过半,降至约 $27 亿。自 2025 年 10 月 BTC 开始跳水以来,加密资产全线回落,Multicoin 这种同时运营对冲基金和 VC 基金的结构首当其冲。

补充一个背景:Multicoin 联创 Kyle Samani 今年 2 月已经离开公司,转向投资科技领域其他方向。

Pantera:五家被投公司 IPO,资本回流 LP

Pantera Capital 的 AUM 同样缩水,但和 a16z 类似,一部分原因是主动向 LP 退出分配。

据知情人士透露,Pantera 在 2025 年有五家被投公司上市,其中包括 Circle 和 BitGo。这些退出带来了可观的现金回流。

Haun Ventures:唯一逆势增长,AUM 涨超 30%

在一片缩水声中,Haun Ventures 是唯一的例外。

这家由前 a16z crypto 合伙人 Katie Haun 创立的机构,AUM 同比增长超过 30%,接近 $25 亿。一方面是因为押中了赛道——它投资的稳定币公司 BVNK 被 Mastercard 以最高 $18 亿的价格收购。另一方面,Haun Ventures 本身也在 2025 年募集新的 $10 亿基金。

新一轮募资已经启动

虽然 AUM 缩水,但头部机构并没有停下脚步:

Paradigm 正在募集最多 $15 亿的新基金。a16z crypto 正在募集最多 $20 亿。Dragonfly 刚刚关闭了 $6.5 亿的第四期基金。文章发布后 Fortune 补充更正:Dragonfly 发言人实际上做出了回应,确认数据「准确」,并表示「我们正在积极部署资本」。

Paradigm、Pantera、a16z crypto、Multicoin、Haun Ventures 的发言人均拒绝评论。

加密 VC 的周期性宿命

原文到这里就结束了,但有几个背景值得补充。

加密 VC 和传统科技 VC 有本质区别。传统 VC 投股权,退出靠 IPO 或并购。加密创业公司很多有自己的代币,VC 的持仓直接暴露在代币价格波动中。

Multicoin 是最极端的案例:据 Fortune 此前报道,2017 年到 2021 年其资产翻了 20,287%,2022 年又回撤 90%。这种幅度在传统 VC 领域不可想象。

据 Pantera Capital 今年初的展望报告,非 BTC 的加密总市值(排除 ETH 和稳定币)从 2024 年末高点下跌了约 44%。但按照历史规律,熊市也是抄底的窗口期。几家头部机构此刻密集募资,赌的就是下一轮周期。

据 Fortune 此前独家报道,a16z crypto 第五只基金计划在 2026 年上半年完成募资,由 Chris Dixon 领投,将继续全力押注区块链方向。Paradigm 的新基金则据《华尔街日报》报道将扩展到 AI 和机器人技术领域。两种策略分野很明显:a16z 继续 all-in crypto,Paradigm 选择跨赛道对冲。

从马杜罗被捕到美伊停火,特朗普身边的内幕网络

「内幕人士」大概是股民既爱又恨的存在。爱,是因为如果能跟上他们的节奏,等于提前知道了答案;恨,是因为他们手里的牌你永远看不见。

然而就算是消息最灵通的内幕人士,在股市里也有自己的局限。你知道美国要打伊朗,但强相关的军工股具体涨多少、何时涨、中间会不会被宏观情绪砸一下,这些都是无法控制的变量。

而我们今天要讨论的 5 名内幕人士,在不用考虑标的、入场时机、甚至不用担心暴露身份的情况下,几笔交易就利用信息差赚了 130 万美元。其中,有人在美以伊冲突开始前半小时还在交易,有人用两笔交易复利赚了 20 倍。

他们的「套现渠道」来自 Polymarket,一个基于区块链匿名特性的预测市场平台。和交易股票、大宗商品等标的不同,预测市场上交易的是「这个事儿会不会发生」。

在明知「下周特朗普要和伊朗谈和」的情况下,风险最低的获利方式就是和别人预测「下周美伊一定会谈和」。

今天,我们就来从数据层面扒一扒 5 名账户,看看他们的画像为什么符合「内幕人士」的特征。

两万本金,两笔交易,二十倍复利

2026 年以来,Polymarket 上有三个特别出圈的地缘政治交易事件:马杜罗被捕、美以联合打击伊朗、美伊宣布停火。这三个交易事件总共给平台贡献了 8.6 亿美元的交易量。

而我们今天提到的这 5 名账户,通过连续「赌」对这种震惊全球的地缘政治事件,在极短的时间内赚得盆满钵满。比如,账户 1 用 2 万美金成功预测美以伊冲突发生时间后,连本带利再次全仓「押注」美伊停火,赚了 40 万美元,实现 20 倍盈利。

更蹊跷的是,这些账户的注册时间分别在 2025 年 12 月和今年 2 月:一个是马杜罗被抓之前,另一个是本轮美以伊冲突前夕。而他们在这个平台上参与的市场总数却也寥寥可数,仿佛目的就是为了来参与自己知道会稳赢的赌局。

如果说注册时间、交易数量少、盈利高仍不足以证明他们的内幕画像,那真正可疑的,是接下来两件事。

「小赌怡情,大赌是因为我知道我输不了」

赌徒和内幕人士最大的区别之一在于,内幕人士知道押注结果,所以敢于在确定性机会上下重注。而这 5 名账户在这方面呈现出的特征,则完美诠释了他们与赌徒的区别。

通过计算每个账户在这三个事件中的投入金额占其总投入金额的比例可以看出,虽然这五名账户的投入金额参差不齐,但他们的比例数据却高度统一。即便是行为最为分散的账户 2,也有 93% 的资金押在相关市场。

这种集中度在统计上是明显异常的。即便是专注地缘政治的分析型投机者,通常也会在十几个市场里分散仓位来管理不确定性。这 5 个账户的选择更像是:认准了几个目标,把几乎全部筹码压进去,其他市场并不重要。

开打前 21 分钟来预测市场赌「要打仗了」

如果说资金集中度是画像轮廓,那建仓时机才是最直接的证据。

北京时间 2 月 28 日 14 时 20 分左右,伊朗首都德黑兰听到爆炸声,以色列宣布袭击伊朗。与此同时,「美国是否会在 2 月 28 日前打击伊朗」这一市场的概率在短时间内从 20% 骤升至 99%,随后迎来结算。

而在参与该市场的 3 名账户中,有两名在打击发生当天押注「是」,其中账户 3 的首笔押注发生在打击前 21 分钟。这笔押注在半小时后翻了 4 倍。

而市场「美国 × 伊朗是否会在 4 月 15 日前停火」的剧情则更令人咋舌。参与该市场的三名账户早在停火前半个月就已经买入了「是」选项,他们的仓位也在随后两周内局势愈加紧张的情况下缩水超 80%。

4 月初,当大部分宏观分析师和智库都在宣称「冲突即将升级为地面战」的时候,这三名账户却在投入更多资金,笃定停火将在接下来的两周内落地。

北京时间 4 月 8 日 06:32,特朗普在 Truth Social 发文宣布停火,概率从 20% 直线冲至 100%。这三名账户通过本次停火盈利近 75 万美元。

亏损,反而更坐实了内幕画像

这 5 个账户并非无懈可击——账户 3 和账户 4 都在「马杜罗是否会于 2025 年内下台」这个市场上亏了钱。乍一看,这笔亏损已经足够洗清他们作为内幕人士的嫌疑。

可如果我们结合特朗普在抓捕马杜罗后的第二天接受媒体采访来看,这笔亏损反而坐实了两人内幕人士的画像。

2026 年 1 月 4 日,特朗普在接受 Fox News 采访时透露,美军原本计划在 2025 年 12 月 29 日执行委内瑞拉行动,但因天气窗口不合适等待了数日,最终于 1 月 3 日才付诸实施。

换言之,如果天气配合,马杜罗将在 2025 年内被捕,「马杜罗是否会于 2025 年内下台」将结算为「是」,这两个账户 1.2 万美元的亏损也会摇身一变成为超 40 万美元的盈利。

他们输,是输在天气,而不是判断错了事件本身。二者在知晓马杜罗仍难逃厄运的前提下,继续押注「马杜罗于 2026 年 1 月 31 日前下台」,最终获利近 30 万美元。

先例已有:有人为此被捕

这并不是第一次有人带着军事内幕来到 Polymarket 套利。

2025 年 6 月,以色列对伊朗发动了一场持续 12 天的军事行动。事后,以色列当局调查并起诉了两名男子:一名以色列空军预备役少校及其民间同伙。

根据起诉书,当以色列战机正在起飞前往打击伊朗之际,这名少校通知了其同伙,后者随即在 Polymarket 买入相关市场,并从这次押注中获利约 16.3 万美元。

本轮美委事件同样引起了美国执法机构的注意。据 Fortune 报道,美委事件中出现的多个可疑账户交易引起了纽约南区执法部门的注意,并随后与 Polymarket 代表会面,就「潜在不当行为」展开讨论。

众议员 Ritchie Torres 随后提出立法,拟限制政府雇员参与政治相关事件合约的交易。目前案件尚无公开起诉结果,但联邦介入调查本身,已经说明这不是孤立的巧合。

以色列的逮捕案已经坐实了一件事:确实有人带着军事内幕来到 Polymarket,也确实有人因此面临起诉。本文分析的这 5 个账户,则呈现了一个更系统化的版本——新账户、资金高度集中、入场时机异常精准、事件结算后全身而退。

与其讨论这些内幕人士可能面对的法律风险,作为旁观者,这件事却也存在着另一层潜在的机遇:当内幕资金流入预测市场,市场价格本身就成了一种信号,使我们在事件还未发生前就能窥见到未来的轮廓。

纳指 11 连涨!七姐妹为什么没有一起回来?

15 天,纳指经历了一轮冰火两重天。

3 月底,市场对七姐妹的分歧还很大,高估值压力尚未出清,资金又很难真正远离核心科技;而到了 4 月 15 日,纳斯达克综合指数 11 个交易日连续上涨,打破了 2021 年 11 月以来的最长连涨纪录,标普 500 也同步创下历史新高。

如果只看指数,这像是一段熟悉的科技股反弹故事,但拉开细看,会发现驱动这轮上行的远不只是科技股本身——中东局势缓和预期、低于预期的 PPI 数据、财报季初段偏强的业绩表现,三条线同时发力。换句话说,这不只是情绪硬拉出来的反弹,而是指数修复、风险偏好回升与盈利预期重定价同步发生。

更值得注意的是,七姐妹内部的走势并不一致,有的已经率先回到趋势里,有的正在补位,也有到现在仍然没有走出明确趋势,而 MSX 此前 Q2 前瞻里也预判了这一轮七姐妹未必会一起回归,大概率会先分出修复顺序(延伸阅读《油价冲高、利率难降、七姐妹趴窝:Q2 美股的超额收益,该看哪些主线?》),并拆解了 3 层:Alphabet(GOOGL.M)、Amazon(AMZN.M)、NVIDIA(NVDA.M)属于更适合优先关注的修复候选;Microsoft(MSFT.M)、Apple(AAPL.M)、Meta(META.M)更适合放进继续观察的名单;Tesla(TSLA.M)则仍然偏高波动、强事件驱动。

这个判断当时看上去很克制,甚至不够「有观点」。

但到了现在,市场演绎出来的,恰恰就是这种「先分层、再展开」的节奏。

一、哪一批先回来,为什么?

回到 3 月底,市场对七姐妹的分歧非常大。

一边是高估值压力尚未出清的隐忧,另一边是资金很难真正远离核心科技资产的现实,当时最集中的讨论是「大科技会不会重新回来」,但事后看,这个问题本身就问得太粗了,真正的问题从来不是「回不回来」,而是「谁先回来、凭什么先回来」。

而半个月后的今天,答案已经在盘面上自己写出来了。

以 3 月底至 4 月 15 日的区间表现看,Alphabet(GOOGL.M)、Amazon(AMZN.M)、Meta(META.M)、NVIDIA(NVDA.M)涨幅靠前,Microsoft(MSFT.M)、Apple(AAPL.M)随后跟上,Tesla(TSLA.M)则明显落后,进一步验证了这不是一段同涨同跌的行情,而是一场拉开了层次的修复排位。

其中先修复的那一组里的 Alphabet(GOOGL.M)、Amazon(AMZN.M)、NVIDIA(NVDA.M),逻辑各有不同,但有一个共同点:它们更早让市场重新相信「投入还能换增长」:

  • Alphabet(GOOGL.M)的修复逻辑最为清晰:核心广告业务的现金流韧性提供了估值底部的支撑,而 AI 对搜索和云业务的渗透,则让市场看到了增长叙事的延续,纯纯是靠基本面的可验证性最先拿回了资金的信任
  • NVIDIA(NVDA.M)的位置则不需要太多解释:只要 AI 还是这轮科技周期的主线,NVIDIA 就始终是最核心的锚点。市场对它的争议从来不是「AI 需不需要算力」,而是「这个增速还能维持多久」,所以至少在目前阶段,无论是云厂商的资本开支计划,还是训练与推理两端的需求信号,都还在支撑它的修复逻辑
  • Amazon(AMZN.M)的变化反而最值得单独拿出来看:在这一轮里,市场原本对 Amazon 的耐心并不算最高,主要是电商增速放缓的担忧一直存在,AWS 面对的竞争压力也没有减小,但随着云业务的利润率持续改善、AI 资本开支的投入开始对应到可见的收入线索、以及整体盈利兑现逻辑逐渐被重新接受,Amazon 反而比很多人预想得更早进入了修复区间,因此它的回归,不是靠一个单一的催化剂,而是多条线索同时达到了市场愿意重新定价的阈值;

换句话说,市场最先重新给估值的,并不一定是最「稳」的那批名字,而是那些更早让资金相信「投入还能继续换增长,修复还能继续往趋势走」的公司。

七姐妹这一轮先修谁、后修谁,本质上比的不是情绪强弱,而是谁更早拿回了解释权。

二、修复在扩散,而不是在收窄

更值得注意的是,这轮修复并没有只停留在第一批名字上。

原本更适合放进继续观察名单里的 Microsoft(MSFT.M)、Apple(AAPL.M)、Meta(META.M),如今也都已经明显跟上。换句话说,市场不是只做最先走出来的那几只,而是在确认第一阶段修复成立之后,继续向第二层扩散。

这件事其实很关键。因为如果这只是一段短线情绪反弹,盘面通常会更粗糙:一起急涨,然后一起回吐,速度快,持续性也有限。但现在的市场不是这样。现在更像是指数先修,随后资金回到核心资产,再在核心资产内部继续排序。谁的业绩能接住估值,谁的投入还能继续对应增长,谁就继续留在修复序列里;谁更多只是跟着情绪走,后面就会在分化里掉队。

也正因为如此,七姐妹这轮更像「顺序拉开」,而不是「整组一起回来」。

更关键的信号是,这轮修复并没有只停留在第一批名字上。

原本更适合放在继续观察名单里的 Microsoft(MSFT.M)、Apple(AAPL.M)、Meta(META.M),如今也都已经明显跟上,换句话说,市场不是只做最先走出来的那几只,然后就到此为止,而是在确认第一阶段修复成立之后,继续向第二层扩散。

这件事的意义比看上去更大。因为如果这只是一段短线情绪反弹,盘面通常会更粗糙:一起急涨,然后一起回吐,速度快,持续性有限,但现在的结构明显不是这样,而是更像是指数先修,随后资金回到核心资产,再在核心资产内部继续排序。

那就意味着谁的业绩能接住估值,谁的投入还能继续对应增长,谁就继续留在修复序列里;谁更多只是跟着情绪走,后面就会在分化里掉队。

这也是为什么说这轮行情更像「修复扩散」,而不是「反弹收官」,使得七姐妹不是整组一起冲高后迅速熄火,而是先修第一批、再扩散第二批、然后在扩散过程中继续筛选谁能留在趋势里。

客观而言,这个结构本身,就说明市场在用一种更有耐心的方式重新给核心资产定价。

但不得不提的是,在这组排位里,Tesla(TSLA.M)仍然是那个最特殊的变量。

它当然有弹性,也当然有足够强的市场关注度。但到现在为止,Tesla 仍然更像一个高波动、强事件驱动的资产,而不是已经稳定回到趋势修复序列里的核心仓位。市场给 Tesla 的定价,很多时候更多建立在预期交易和事件驱动上——自动驾驶政策进展、Robotaxi 时间表、Elon Musk 的公开表态——而不是稳定的盈利兑现。

这不是说 Tesla 没有交易价值,恰恰相反,它的波动本身就是一种交易机会。但它的存在,恰恰说明了七姐妹这一轮不是整整齐齐一起回来了,有人已经回到趋势里,有人正在后补这一步,也有人到现在仍然站在趋势的边缘。把七姐妹这一轮说成「整组回归」太粗,把它理解成「修复顺序已经拉开」,反而更接近盘面本身。

三、这轮修复还能走多远?

到了现在这个位置,更值得讨论的已经不是「这一轮是不是涨多了」,而是「这轮修复还有没有继续展开的基础」。

从机构口径看,答案偏正面。BlackRock Investment Institute 已将美国股票观点从中性上调至增持,理由之一是企业盈利,尤其是科技盈利的韧性;花旗同样将美国股票上调至增持。标普 500 一季度盈利增速预期已从中东冲突前的 12.7% 上修至 13.9%。这意味着,支撑这轮修复的不只是风险偏好回暖,更重要的是盈利预期本身没有塌。

这一点对七姐妹的修复主线尤为关键。因为这一轮的修复逻辑,从头到尾都不是建立在情绪或流动性驱动上,而是建立在「核心科技公司的盈利还能不能兑现」这个基础判断上。盈利预期继续上修,就意味着修复的基础还在,无论是已经修复到位的第一批,还是正在跟进的第二批,都还有继续沿趋势运行的空间。

当然,变量也没有消失。IMF 已经因为中东冲突和能源价格上行下调了全球增长展望,并警告如果冲突拖长、油价维持高位,全球经济将更接近不利情景。也就是说,这轮行情后面最大的扰动,未必来自七姐妹内部逻辑失效,反而更可能来自外部宏观——油价、通胀和地缘。

但至少到目前为止,市场给出的答案是偏积极的:指数先修,核心科技分层修复,第一批完成后再向外扩散,而不是整组冲高后迅速熄火。只要市场还在按这个结构运行,这一轮就更像一个仍在展开中的过程,而不是已经接近尾声的故事。

写在最后

纳指 10 连涨这件事,意义不只是指数涨了多久。

它更像是市场用盘面本身,回答了一个 3 月底争论最激烈的问题:七姐妹这一轮,到底是整组回归,还是会先分出顺序。

现在答案已经很清楚。

说实话,市场上从来不缺复盘,也不缺事后总结。真正稀缺的,往往是在分歧最大的时候,有没有人能先把重点拎出来,而 3 月底那篇 Q2 前瞻,正是没有去追一个更热闹、更容易传播的结论,而是先把这轮行情最关键的东西摆在前面:七姐妹不会整组回归,市场会先分出修复顺序,真正决定后面空间的,也不是第一波谁弹得最快,而是谁能在后续的业绩、趋势和风险偏好里继续站稳。

归根结底,无论是财报季里的兑现分化,还是核心科技之外的新一轮扩散,真正值得关注的,仍然是那些能更早把盘面重点说清楚的判断——而不是等行情走完之后,再去补一个看起来很顺的解释。

下一个拐点到来之前,让我们一起继续拎出市场重点,做到有的放矢。

与大家共勉。

Gate 机构周报:机构周报:油价下跌 14%,Uniswap 以成交量重回现货榜首

摘要

• 近一周市场由停火缓和、通胀回落和政策稳定共同驱动,油价大跌、VIX 回落,风险偏好回升,BTC 区间上移至 6.8 万–7.3 万美元。

• 资金层面呈现剧烈波动后的强修复,BTC ETF 单周净流入约 8.33 亿美元创阶段新高,ETH ETF 同步录得净流入,机构买盘重新主导。

• 交易结构转向宏观高波动资产与头部平台,资金集中原油等能源品种,DEX 端回归 Uniswap 等高流动性平台。

• 稳定币与 DeFi 出现结构性修复,USDC 成为主要增量,资金优先回流头部质押协议与主链借贷市场。

• 协议收入体现向基础设施层回流,交易与清算类协议走强,前端入口与流量分发热度回落。

• 衍生品市场呈现空头拥挤但价格上行背离特征,资金费率为负但价格上涨,存在挤空动能;期权转向短端博弈与卖波策略。

1. 市场焦点解读

过去一周,美、伊朗和以色列之间为期两周的停火协议,为这场震动全球市场的冲突带来了令人欣喜的缓和。上周停火协议宣布后,市场出现强劲反弹,股票和债券价格上涨,而油价则应声下跌 14%,VIX 指数暴跌至 19.23,3 月初以来的首次收盘价低于 20。

此外,全球金融市场,特别是加密货币领域,还受到了宏观经济数据和 Fed 政策预期的显著影响。4 月 10 日,CPI 数据显示通胀压力低于预期,这在一定程度上缓解了市场对 Fed 将采取更激进紧缩政策的担忧,这也通常被视为对风险资产的利好。上周还公布了联邦公开市场委员会(FOMC)的会议纪要,市场预测显示 4 月份维持当前利率不变的概率高达 98.4%。这一高度确定的“按兵不动”预期,为市场提供了稳定的政策环境,减少了短期内的不确定性。

在通胀压力缓解和政策预期稳定的双重作用下,市场整体风险偏好显著回升。机构投资者对加密货币的兴趣依然浓厚,比特币现货 ETF 持续流入,为市场提供了坚实的底部支撑。这些宏观因素共同作用,为比特币和以太坊在过去一周的走势奠定了基础,使其在经历短暂回调后能够迅速反弹。

过去两周,比特币的价格区间悄然上移,从 6.3 万至 7 万美元扩大到 6.8 万至 7.3 万美元,7.3 万美元的阻力位仍然是需要关注的关键水平。如果霍尔木兹港重新开放得到确认,则可能成为突破该阻力位的催化剂。而下行方面,比特币在 6.8 万至 6.9 万美元附近多次获得支撑,但每次尝试都导致支撑位收窄。加密货币已经反映了长期冲突的预期,目前在区间支撑附近交易,这意味着任何积极的意外或缓和局势的利好因素都有上涨空间,而进一步的恶化已被市场基本消化。

2. 流动性分析

2.1 BTC ETF 创下数月内最大的正数周

上周 BTC ETF 日内走势呈现剧烈震荡,4 月 6 日净流入 471.4M 美元,创下自 2 月底以来的最大单日流入量,而随后两个交易日因地缘政治风险急剧升温,分别逆转为 -$159.1M 和 -$93.9M 的净流出。BTC ETF 周净流入约 833.2M 美元,以太坊 ETF 周净流入 187.0M 美元。从横向对比看,上周 BTC ETF 流向情况相比前一周(约 22.3M 美元净流入)有极其显著的改善,创下数月内最大的正数周,整体情绪在避险与抄底间快速切换,最终多头占据主导。

BTC ETF 净流量最高产品:

1. IBIT(BlackRock) 周净流入 612.1M 美元

2. FBTC(Fidelity) 周净流入 151.7M 美元

ETH ETF 净流量最高产品:

1. ETHA(BlackRock) 周净流入 168.3M 美元

2. ETHB(BlackRock 质押 ETH ETF) 周净流入 66.0M 美元

4 月 6 日,机构买盘在地缘政治不确定性中逆势建仓,推动了超预期的巨额流入。然而,随着 4 月 7 日美伊谈判破裂及霍尔木兹海峡关闭风险上升,避险情绪迅速蔓延,导致连续两日的资金外逃——这属于面对突发战争风险的机械性减仓操作,而非长期看空信号。4 月 8 日晚间,特朗普总统宣布美伊达成两周停火协议,原油价格暴跌,流动性担忧骤降,机构买盘随即报复性回归。此外,4 月 10 日公布的 3 月 CPI 数据显示,虽然受能源拖累名义通胀升至 3.3%,但核心 CPI 同比 2.6% 低于预期,表明核心通胀依然温和,进一步支撑了风险资产的反弹,ETF 流量也呈现出”利空出尽后加速流入”的特征。

2.2 TradFi 流动性

近一周 DEX 端 TradFi 永续交易呈现出显著的结构性分化特征,交易重心明显向能源类资产集中。以原油为代表的 WTI 原油占比大幅提升,成为主导交易品种,反映出市场在地缘风险与油价波动加剧背景下,资金正集中于宏观波动最强的资产进行方向性博弈;同时,布伦特原油占比亦明显上升,进一步强化能源板块的主导地位。相比之下,黄金与白银等传统避险资产占比有所回落,显示资金从防御性配置转向更高弹性的交易标的;股指如 XYZ100 与个股如 NVDA 则维持中等占比,更多承担辅助配置角色。整体来看,DEX TradFi 交易结构已从此前的“贵金属主导”切换至“能源驱动”,反映市场交易逻辑再次由避险配置转向围绕宏观变量的高波动交易,这一趋势与链上资金向高频交易链路迁移的背景保持一致。

CEX TradFi 永续合约交易量整体维持在高位区间震荡,并呈现出“结构集中 + 波动放大”的特征。具体来看,交易量仍以金属类资产为绝对主导,尤其是黄金相关品种在宏观不确定性与通胀预期反复的背景下持续吸引资金参与,成为主要成交来源;与此同时,商品类尤其能源在周内亦出现阶段性放量,反映出市场对原油及宏观事件的交易需求上升。节奏上,周中交易量明显放大,对应宏观数据与地缘事件催化,随后虽有回落,但整体仍高于前期中枢,显示资金活跃度维持高位。结构上看,TradFi 交易正从单一避险资产驱动,逐步扩展至“黄金 + 原油 + 指数”的多资产联动框架,体现出用户从配置型交易转向以宏观波动为核心的策略交易。

近一周 CEX TradFi 资产类别数量进一步扩张,三家主流 CEX 在 TradFi 资产类别(仅统计 TradFi 与 CFD 板块,不含永续合约)总数由 802 增至 885,环比增长 10.3%。其中金属类增长最为显著,由 23 支增长至 29 支,环比增长 26.1%;大宗增速排名第二,由 39 支增长至 46 支,环比增长 17.9%。

我们选取 TradFi 交易量最高的 XAUT,对其订单簿深度(Delta)进行分析。从过去一周来看,XAUT 的订单簿深度呈现出“先弱后强、流动性逐步修复”的特征。4 月 8 日前后,XAUT 价格快速反弹,正向 Delta 明显增加,买盘深度阶段性增强,表明有资金开始主动抬价并提供上方流动性。随后在 4 月 9 日—4 月 12 日期间,虽然价格维持高位震荡,但订单簿重新转向以负 Delta 为主,显示上方抛压仍然存在,市场在高位存在一定分歧。值得注意的是,周末正向 Delta 再度回升并伴随价格走强,说明买盘流动性重新占优,市场情绪有所修复。整体来看,XAUT 深度结构反映出在黄金价格上行背景下,资金经历了从防御性撤出到重新布局的过程,短期内流动性已出现边际改善,但高位仍存在一定抛压,需要关注后续买盘持续性。

3. 链上数据洞察

3.1 DEX 交易重心回到 EVM 头部平台,Uniswap 重回榜首

DEX 交易量榜首回到 Uniswap,单周成交 138.5 亿美元,PancakeSwap 紧随其后,为 103.3 亿美元。和上一周相比,PancakeSwap 出现回落,Uniswap 则显著抬升,资金回流到流动性更深、交易对更成熟的主平台。此外,Aerodrome 和 Bisonfi 为代表的 Base 和部分新兴场景承接了一部分活跃资金;另一边,Whirlpool、Raydium、Humidifi 都有回落,Solana 内部的交易没有形成全面扩散。

3.2 稳定币总量维持高位,USDC 是主要增量来源

稳定币板块本周并未出现剧烈波动,整体在高位区间内进行结构调整。USDT 与前一周相比变化不大,底层美元流动性依旧稳定。USDC 由 7,986.8 亿美元回升至 8,104.9 亿美元,成为本周最明确的增量来源,显示资金重新增配主流结算型美元资产。另一侧,USDS、USDe、DAI、GHO 均出现小幅下滑,去中心化稳定币板块本周未能形成合力。在边际变化方面,USDG 与 PYUSD 双双回升,支付型与新发行稳定币内部仍在发生新的资金分流。

3.3 流动性质押迎来整齐修复,ETH 与 SOL 两条主线同步抬升仓位

本周流动性质押板块头部协议大多收复前期回撤。ETH 侧方面,Lido 回升至超 210 亿美元,Rocket Pool 也重新站上 13 亿美元,龙头协议整体转强。SOL 方向同样出现修复,Sanctum Validator LSTs 升至 11.3 亿美元,Jito 和 Jupiter Staked SOL 也均出现明显抬升。本周是风险偏好回暖之后的一轮统一修复,资金首先回补的是头部协议仓位。与此同时,Lido 近一个月围绕 EarnETH、EarnUSD 以及 first-loss protection 的产品推进,也在持续细化收益与风险分层,这类更偏机构化的工具有助于提升大资金回流意愿。

3.4 Aave 借贷规模拐头向上,主市场与 Mantle、Plasma 共同发力

Aave 借贷规模升至约 176.9 亿美元,高于前一周的 172.5 亿美元。其中,Ethereum 主市场由 132.7 亿美元升至 135.7 亿美元,成为拉动总盘的核心力量。与此同时,Plasma 从 16.6 亿美元增至 17.1 亿美元,Mantle 由 5.9 亿美元升至 6.4 亿美元,Base 与 Arbitrum 也均站上 5.17 亿美元左右,多链借贷需求同步回暖。相较之下,Avalanche、BNB Chain、Polygon 等次级市场变化不大,新增融资需求仍主要集中在流动性最深、交易效率最高的几条主线上。

3.5 Aave 资金利率分化,USDC 走松,USDT 与 WETH 利率抬头

Aave 三类核心资产并未朝同一方向变动。USDC 平均浮动借款 APR 由 3.51% 降至 3.42%,资金压力略有缓和;而 USDT 则由 3.10% 升至 3.22%,WETH 也从 2.23% 抬升至 2.29%,借贷成本开始向这两类资产倾斜。这一组合通常对应较为明确的交易状态,即总借贷规模虽然在增长,但新增融资需求并未继续集中在 USDC 上,而是部分回流至 USDT 周转与 ETH 仓位管理。若后续 Aave V4 能够真正落实风险隔离与跨市场路由,不同资产之间的利率差异有可能被进一步放大,而本周已经可以看到这一趋势的初步雏形。

3.6 协议收入回归交易基础设施轮动节奏,Hyperliquid 反弹明显

协议收入板块本周未出现异常峰值。Tether 和 Circle 二者继续稳居前两位,稳定币发行端依旧是当前加密收入体系中最稳固的底盘。交易型协议方面,Hyperliquid 由 1,132.3 万美元升至 1,367.7 万美元,Titan Builder 从 55.8 万美元跃升至 143.8 万美元,Aerodrome 也由 111.3 万美元增至 196.0 万美元,资金与交易流量正在重新集中到效率更高的基础设施层。

与之相对,Phantom 由 197.6 万美元回落至 133.2 万美元,Jupiter 从 154.1 万美元降至 92.8 万美元,前端流量入口与分发层的热度有所回落。Aave 收入则升至 144.1 万美元,虽然弹性不大,但位置相对稳定,借贷协议的盈利质量本周依旧明显好于高换手平台。整体来看,收入面释放出的信号较为清晰,市场并没有脱离交易,只是资金重新回流到了成交效率更高、清算能力更强、现金流质量更稳的基础设施环节。

4. 衍生品追踪

4.1 BTC 资金费率深度转负但价格走强,持仓量快速回升至阶段高位

过去一周,BTC 资金费率整体持续处于负值区间,并在 4 月 13 日前后出现阶段性极端负值(最低接近 -0.015),显示永续合约市场中空头情绪明显占优、做空拥挤度显著提升。但与此同时,现货价格却从约 69K 一路反弹至 74K 上方,形成典型的价格上涨但资金费率为负的背离结构。这种结构通常意味着空头在被动支付资金费的同时承受价格上涨压力,市场存在潜在的 short squeeze 动能。整体来看,当前市场处于偏空情绪主导但价格由现货或结构性买盘驱动的阶段,短期容易在波动中触发空头回补与加速上行。

BTC 全市场未平仓合约在过去一周从约 22.5B 附近快速上行至 25.3B 左右,并与价格同步反弹至 $74K 上方,杠杆资金正在明显回流市场。值得注意的是,中间一度在 4 月 11 日出现 OI 快速下探(类似集中平仓或挤出),随后迅速修复并创出新高,这种先去杠杆后再加杠杆的结构通常意味着弱势仓位被清洗后,新的趋势资金接力入场。结合资金费率持续为负来看,当前 OI 的回升可能由做空与对冲仓位驱动,市场处于高杠杆、方向分歧但偏空的状态,一旦价格继续上行,仍存在进一步挤空放大的空间。

4.2 事件驱动下短端拥挤,中远端偏防御

期权成交与持仓结构呈现事件驱动特征。月期权与日期权同步放量,其中日期权在 4/10 达到全周峰值,超短线围绕停火证伪后的来回波动进行高频博弈;月期权则在 4/7–4/8 停火预期阶段集中放量,体现机构在地缘窗口期进行中期方向调整。相比之下,周期权持续缩量,说明 1–2 周维度缺乏明确方向共识。从到期结构看,成交主要集中在当日到期与下周五到期合约,短端防御需求明显;中远期成交递减,整体偏中性配置。大宗交易层面,BTC 以期限结构套利(long short-end vol, short mid vol)为主,ETH 则以卖跨等收权利金策略占主导,表明当前市场更多在做波动率结构与区间博弈,而非单边方向性押注。

4.3 防御溢价仍在,但看空情绪边际缓和

BTC 25-Delta Skew 全期限维持在 -4 至 -8 vol 区间,Put 溢价仍然主导,市场整体仍保持对下行风险的对冲需求。但相较 3 月底 -8 至 -11 vol 的极端区间,Skew 已明显抬升约 2–3 个 vol point,反映看空情绪边际缓和。ETH Skew 变化更为显著,由此前的 -5 至 -8 vol 区间整体上移至 -3 至 +2 vol,部分期限甚至接近对称,说明市场对尾部下跌风险的定价明显收缩。不过,长端 Skew 仍未明显转正,机构层面尚未完全转向进攻,整体维持降低防御但不彻底解除的配置状态。

4.4 DVOL 回归基线区间,波动溢价进入压缩阶段

BTC DVOL 当前约 44.76,已从 2 月初地缘冲突触发的 90+ 极端水平持续回落,基本回归 1 月中旬的基线区间。4 月停火事件仅带来短暂脉冲(45→50),随后快速回落,市场已不再对单一地缘事件给予高波动溢价。当前 DVOL 接近半年均值支撑(45–48 区间),若进一步下探至 40 附近,将进入历史低波区间。ETH DVOL 当前约 65.50,同样回落至冲突前水平,但相对 BTC 仍高约 20 vol point。结合大宗交易中大量卖跨、卖波动策略,可以确认市场主流判断为低波震荡环境。整体来看,波动率已进入压缩尾声阶段,卖方收益空间收窄,但同时也为中期买入波动策略提供了更具性价比的入场窗口。

5. 本周展望

6. Gate 机构动态更新

交易表现:结构优化,整体跑赢市场

• 现货与合约整体跑赢大盘,合约表现行业领先

• 做市费率及考核规则迭代后,中腰部客户活跃度明显提升,交易结构持续优化

CrossEx:交易量及资沉创历史新高,与资管平台联动加速

• CrossEx 激励活动持续驱动充值与交易放量,多客户已进入实盘与策略阶段,交易量及资沉均创历史新高;

• 持续推进与资管平台、OTC Loan 联动

资金业务:需求持续回暖,结构分化

• 活期与全仓借贷规模增长明显

• ETH、USDT 及热门资产借贷需求大幅度回升

技术进展:性能与功能双提升

• Websocket SBE 上线,提升数据传输效率

• AI 客服机器人已初步落地,逐步赋能 BD 与客户服务

数据来源

• Investing, https://investing.com/currencies/xau-usd-historical-data

• Gate, https://www.gate.com/trade/BTC_USDT

• CMC, https://coinmarketcap.com/real-world-assets/?type=all-tokens

• Coinglass, https://www.coinglass.com/pro/depth-delta

• Dune, https://dune.com/gateresearch/gate-tradfi#weekly-volume

• Dune, https://dune.com/gateresearch/gate-institutional-weekly-report

• Bybit, https://www.bybit.com/future-activity/en/tradfi

• Bitget, https://www.bitgettradfi.com/tradfi/XAUUSD

• CryptoQuant, https://cryptoquant.com/asset/btc/chart/derivatives

• Amberdata, https://pro.amberdata.io/options/deribit/btc/current/

Gate 研究院是一个全面的区块链和加密货币研究平台,为读者提供深度内容,包括技术分析、热点洞察、市场回顾、行业研究、趋势预测和宏观经济政策分析。

免责声明

加密货币市场投资涉及高风险,建议用户在做出任何投资决定之前进行独立研究并充分了解所购买资产和产品的性质。 Gate 不对此类投资决策造成的任何损失或损害承担责任。

Exit mobile version