近日,国产大模型DeepSeek R1面世,引发全球瞩目。该模型具备解决复杂问题的能力,与OpenAI的o1媲美,但训练成本仅为其3%-5%。《华尔街日报》报道,DeepSeek的最新模型之一的训练费用为560万美元。

《华尔街日报》进一步指出,为了训练其V3模型,DeepSeek使用了超过2000个英伟达芯片集群(H800),而训练同样规模的模型通常需要数万个芯片。
分析认为,若更多初创公司能够复制DeepSeek的成就,可能会降低对英伟达高端芯片的需求。
外媒报道称,DeepSeek R1发布后的第二天,英伟达股价暴跌16.97%,市值蒸发近5890亿美元,相当于略超3个AMD或近18个寒武纪。福布斯富豪榜显示,英伟达创始人黄仁勋的个人财富也减少了超208亿美元。
除了英伟达之外,与AI芯片紧密相关的企业也受到了波及。博通股价下跌17.4%,市值蒸发近2000亿美元。台积电市值减少逾1500亿美元,跌幅达13.3%。甲骨文和美光科技分别下跌13.79%和11.71%。
此时正值科技公司财报发布高潮期,苹果、Meta、特斯拉以及微软等巨头将陆续公布财报。周一的股市下跌使得这些财报显得尤为重要。投资者是否相信高效模型对算力需求的增加,将在资本市场中得到检验。
有分析指出,AI模型的开发与使用成本不断下降,会推动算力需求的持续增长。随着AI技术门槛的降低,用户数量和应用生态的迅速扩展将促使推理成本下降,这将带来更广泛的应用和更高的算力需求。
大模型的更新和应用多样化需要大量基础算力的支持。无论是通用算力GPU还是专用算力ASIC,其需求才刚刚开始。
DeepSeek创始人梁文锋曾表示,DeepSeek面临的最大挑战不是资金,而是高端算力的使用权,特别是在训练先进AI模型时。这些芯片的需求至关重要。
对于DeepSeek的迅速崛起,华尔街存在分歧。Jefferies指出,DeepSeek能够在较少计算资源下提供与GPT-4o媲美的性能,这可能对硬件制造商产生负面影响。AI企业需为日益增加的资本开支提供合理性支持,否则可能影响数据中心的收入和利润增长。DeepSeek的高效方式让Meta和微软新宣布的600亿美元资本开支计划显得庞大。
花旗则认为,领先的AI企业仍然依赖更高级的GPU,因为这些芯片在大规模应用时具有更具吸引力的成本效益。像Stargate这样的AI公司资本开支计划表明了对高端芯片的持续需求。
高盛表示,这一趋势可能通过降低技术门槛,重新定义科技巨头与初创企业之间的竞争格局。
X的一位用户对DeepSeek进行了冷静思考:
