有杠杆的股票平台 刘润:DeepSeek这把火,为何烧疼了硅谷?

  • 首页
  • 配资申请网
  • 炒股配资详情
  • 最正规股票配资平台
  • 栏目分类
    你的位置:配资申请网_炒股配资详情_最正规股票配资平台 > 最正规股票配资平台 > 有杠杆的股票平台 刘润:DeepSeek这把火,为何烧疼了硅谷?
    有杠杆的股票平台 刘润:DeepSeek这把火,为何烧疼了硅谷?
    发布日期:2025-02-08 21:58    点击次数:96

    有杠杆的股票平台 刘润:DeepSeek这把火,为何烧疼了硅谷?

    有杠杆的股票平台

    很多人在后台给我留言,要我讲讲 DeepSeek。这大过年的。本来想睡个懒觉。然后看个电影。然后再睡个懒觉。然后再看个电影。什么也不想写。但是但是但是,DeepSeek 实在是太火了。

    火到什么程度呢?

    美国的一把山林大火,几个星期烧掉了加州 2500 亿美元。而 DeepSeek 横空出世,纳斯达克大跌 3%,瞬间烧掉了 5000 多亿。什么概念?如果把这 5000 多亿换成百元美刀,用飞机来运到焚烧厂去烧,需要 87 架满载的空客 380。

    美国人吓坏了。

    可是,DeepSeek 这把火,为何烧疼了硅谷?DeepSeek,到底厉害在什么地方?他被高估了吗?有人指责 DeepSeek "偷窃",是真的吗?

    今天。我们就来聊聊这件事。从哪里开始呢?就从美国人为什么这么怕开始。这种怕,源于心中的一根刺。一根针不能碰,一碰就疼的针。

    这根刺的名字叫:斯普特尼克时刻。

    斯普特尼克时刻

    1957 年 10 月的一天,很多美国人走出家门,惊恐地望向天空。他们听说,(前)苏联人发了一颗"篮球"上天,绕着地球飞行。时速 29000 公里。他们试着用肉眼,寻找这颗不断在他们头顶上绕圈的"篮球"。

    这颗"篮球"的名字,就叫斯普特尼克(sputnik)。它当然不是篮球。它是一颗人造卫星。

    人类历史上第一颗人造卫星。

    人类历史上第一颗人造卫星,"居然"不是自己发射的。美国人很难接受。你能想象吗?这就像连续三年的全年级第一,突然发现清华唯一提前录取的,不是自己。

    斯普特尼克号卫星,就像一根刺一样,扎痛了那一代美国人。

    然后,美国正式成立了 NASA(美国航天局),并举全国之力完成了登月。这才拔掉了心头那根叫"斯普特尼克"的刺。

    68 年后的今天,DeepSeek 让美国人看到了另一个"斯普特尼克"时刻。

    大模型届的拼多多

    你试过 DeepSeek 了吗?

    赶快去试试。真不错。推理能力,直逼 OpenAI 的 ChatGPT o1。而且,不用翻墙。不用美国信用卡。也不用担心,因为不慎被发现是中国用户,而被系统"歧视性"封号。太扬眉吐气了。

    但这都不是最重要的。最重要的是:DeepSeek 实在是太太太便宜了。

    ChatGPT o1 完成一次训练的成本,据说要上亿美金。而 DeepSeek,只需要不到 600 万美金。

    1/20。便宜到不敢相信。

    这就像有人指着一台 20 万的新能源车,说 1 万卖给你。便宜到难以置信。你忍不住问,这台是不是只会唱:爸爸的爸爸是爷爷?

    美国科技界迅速对 DeepSeek 做了各种评测。然后,震惊了。这个"大模型届的拼多多",推理能力真和 ChatGPT o1 非常接近。

    随即,英伟达股票大跌 17%。原来,训练一个模型,并不需要像你们说的那么多 GPU 啊。DeepSeek,居然做到了所有硅谷科技巨头都没做到的事。

    那么,DeepSeek,到底是怎么做到的呢?

    被"逼"的。被"年级第一"的"小院高墙"策略逼的。

    小院高墙

    2018 年,美国首次提出对华科技防御策略:小院高墙。关系到美国国家安全的"小院"(半导体和微电子,量子信息技术,和人工智能等等),对中国建设"高墙"(出口管制,限制签证,和审查投资等等)。

    随后,2022 年,美国开始禁止英伟达对中国出口高端 GPU。这些 GPU,对训练 AI 大模型至关重要。

    为什么啊?好好做朋友不行吗?不做朋友,做生意也行啊。公平竞争,共谋发展。有必要这么藏着掖着防着吗?

    哎。你不理解"年级第一"的心态。

    在一个班里,倒数第一和倒数第二,一般都是铁哥们。但是正数第一和正数第二,基本都是死对头。

    以前我帮你辅导作业,是因为你是后进。你进步我很高兴。可是万万没想到,你居然不识好歹,才帮了几天你就想取代我的"年级第一"了。这怎么行。橡皮是我的。GPU 也是我的。以后再也不借给你了。

    这就是"年级第一"的心态。

    那怎么办呢?就这么认输吗?没有 GPU,怎么训练 AI 模型呢?

    创新。

    资源无限的时候,不需要创新。真正的创新,都发生在匮乏的时候。

    比如:混合专家系统。

    混合专家系统

    混合专家系统,也就是 Mixure of Experts。简称 MoE。

    我们去医院看病。医院的 50 个医生,每个都是最好的全科医生。内科、外科、儿科、心血管科、脑科、甚至妇科。什么都懂,什么都能治。这当然最好。但这样的成本实在是太高了。因为每个医生可能都要 30 年才能毕业。

    这就像大模型。一个模型,有 50 个博士学位,能回答所有问题。这当然好。但是实在是太烧 GPU 了。

    而且,GPU 都在美国的小院里。我没有啊。怎么办呢?

    也许你可以试试,把医院分成不同的科室。内科的只管内科,外科的只管外科。这样,"训练"医生难度不就降低了吗?

    用 50 个便宜的专科医生,取代一个昂贵的全科医生。然后,再设一个导诊台,根据病情,把患者分配给不同的医生,问题不就解决了吗?

    这就是混合专家系统。

    混合专家系统,大大降低了 AI 的训练成本。

    强化学习

    训练大模型还有一项重要的成本,是人工打标签。

    这张照片,是只小狗。那张照片,是只小猫。清楚标记出来,人工智能才不会学错。用人工标签,监督 AI 的学习过程。这就是"监督学习"(Supervised Learning)。

    "监督学习",给很多第三世界国家,创造了大量工作岗位。所以有句开玩笑的话:

    有多少"人工",就有多少"智能"。

    那这个成本,能不能也省了呢?

    孩子学习走路的时候,可没有用什么打标签的照片吧。这个姿势是正确的,那个姿势是错误的。孩子,请按照片上的姿势走。从来没有吧。

    那孩子是怎么走路的?就是只管走就好了。摔倒了屁股会疼。走好了妈妈会抱。孩子会根据这种惩罚和奖励的反馈,不断自动调整姿势,直到终于在一个瞬间,就突然会走路了。

    这就是:强化学习。Reinforcement Learning。简称 RL。用激励函数,而不是打标签的数据,来学习。从而大大降低训练成本。

    MoE+RL。

    真不容易。为什么美国人没有先做出来?

    因为他们不缺 GPU 啊。很多创新,都是被"逼"出来的。

    DeepSeek 还有一个独特之处,那就是:开源。

    开源

    有一个挺讽刺的事。你已经知道了吧。OpenAI,其实并不 Open。

    什么,你还不知道?那听我和你好好说说。

    ChatGPT 2.0 之前,OpenAI 是开源的。模型的代码和权重,是对所有人公开的。但自从 ChatGPT 3.0 开始,OpenAI 选择了闭源。" OpenAI "变为了" CloseAI "。

    其实,这也可以理解。训练大模型实在是太烧钱了。逐渐大家也开始接受了:想要高质量的模型,就要选择闭源。

    直到,DeepSeek R1 出现。并且开源。

    可是,就算你的成本很低,只有 OpenAI 的 1/20,也没必要开源吧?毕竟你也要活下去啊?你开源,图什么啊?

    图:生态。

    我只有 200 个工程师。就算他们全是浙大、北大、清华毕业,也只有 200 个人。这点人手,根本无法和微软、谷歌、OpenAI 比。

    那怎么办?团结整个开发者生态。

    我把所有的研究成果,模型代码和权重,都免费公开给全世界。这样,就会吸引大量开发者,来使用我的模型,测试我的模型,改进我的模型。

    代码很重要。但是生态更重要。

    用代码换取整个生态的帮助,可能才是对抗巨头们的唯一方法。

    明白了。可是,那你怎么活下去呢?

    别担心。开源大模型,也能赚钱。

    开源也能赚钱

    开源大模型,至少有三种赚钱的办法。

    第一种,是"双代码模式"。

    免费公开的基础代码。这对大部分人来说够用了。但是对于一些大型企业来说,他们希望有的权限管理,分级管理,等等各种"高级能力",可以收费。

    第二种,是"保险费模式"。

    是代码,就会出问题。大公司对服务的稳定性、响应的及时性,要求很高。所以,大公司很可能会购买"保险"服务,确保遇到问题时,会有人会处理。

    第三种,是"云服务模式"。

    而对中小企业和个人,可以像用水和用电一样,直接调用 DeepSeek 的 API,使用 DeepSeek 的云端"智能资源",然后按"度"(百万 token)付费。

    不管是开源,还是闭源。只要创造了价值,都能赚到钱。所以,不用为 DeepSeek 担心。

    也不用为英伟达担心。

    杰文斯悖论

    DeepSeek 这个"大模型届的拼多多"横空出世。英伟达股票当天暴跌 17%。投资人担心大家不再需要那么多 GPU 了。

    其实,大家不用太担心。给你讲个故事。

    1776 年,瓦特改良了蒸汽机。瓦特蒸汽机,比老式蒸汽机,节省 2/3 的煤炭。于是人们欢呼:煤炭的消耗,将从此大大减少。

    但实际情况,恰恰相反。英国经济学家杰文斯发现,蒸汽机的效率提高了 10 倍的同时,煤炭的消耗量不但没有下降,反而上升了 100 倍。

    为什么呢?

    因为蒸汽机效率提升后,原来用不起煤炭的人,觉得自己用得起了。于是纷纷办厂。工厂数量的激增,反而引起煤炭用量的剧烈反弹。

    这就是著名的"杰文斯悖论"。

    英伟达的显卡同理。

    DeepSeek 大大提升了 GPU 的使用效率。这在短期内,可能会导致 GPU 的用量下降。但很快,就会有更多人因此加入模型训练阵营,从而导致显卡的需求激增。

    果然。懵了的纳斯达克,第二天就清醒了过来。英伟达股票回涨了 8%。

    回过神来后,在一片赞叹声中,也逐渐出现了各种质疑和批评。

    比如:蒸馏。

    蒸馏

    美国白宫顾问 David Sacks 公开表示,有"实质性证据"证明,中国 AI 公司 DeepSeek "蒸馏"(distill)了 OpenAI 模型。他把这种"蒸馏"行为,比作"偷窃"。

    嗯 …… 打不过,就诬陷吗?"蒸馏"这个指控,很严重啊。

    首先解释一下,什么是"蒸馏"?

    有两个模型。一个老师模型(teacher model),一个学生模型(student model)。学生不断向老师提问,并把"问题 - 答案"记录下来。然后用这些"问题 - 答案"的数据,来训练学生,从而让学生拥有和老师非常接近的知识和能力。这就叫:蒸馏。

    这就是蒸馏啊?可是,学生向老师学习,也没什么问题吧?

    是的。学习是没什么问题。但是,ChatGPT 的用户协议里明确写着,不允许用我的模型,来训练新的模型,尤其是训练用来和我竞争的模型。也就是说,禁止蒸馏。用 ChatGPT,就要遵守 ChatGPT 的使用协议。这是诚信问题。

    另外,牛顿花了 30 年创造了万有引力定律。我花了 3 天学会了万有引力定律。虽然结果是,我们都懂了万有引力定律。但是,我不能用我的 3 天,去嘲笑牛顿的 30 年。

    所以,David 的这个"蒸馏"指控,还是挺重的。

    那么,我亲爱的读者朋友,你相信 DeepSeek 蒸馏了 ChatGPT 的模型吗?

    我确实不知道。我希望没有。因为如果真有,那这篇文章前面所有文字,可能有部分就白写了。

    如果真的没有,DeepSeek,我希望你能你起诉 David。请求法院罚他赔偿 1 美元。加在小红书上连续道歉 30 天。

    这样的污蔑,太欺负人了。

    曼哈顿计划 2.0

    DeepSeek 这把火,为何烧疼了硅谷?

    用游戏科学的创始人冯骥的话来说:因为这是一个"国运级"的机会。

    为什么?因为 AI 不是一项普通的技术。它是一门能改变几乎所有其他技术的技术。

    哪个国家能率先实现通用人工智能(AGI),也许谁就能率先解决材料科学问题(武器更先进),率先解决蛋白质问题(医疗更先进),率先解决可控核聚变问题(能源更先进),以及其他很多问题。

    这也是为什么,美国人把 AI 称作曼哈顿计划 2.0。

    上个世纪,美国人发誓,一定要比德国人先研发出原子弹。这项计划,就叫做作:曼哈顿计划。现在,他们一定要比中国人先实现通用人工智能。甚至不惜各种封锁。

    哎。至于吗。一起发展不好吗?必须对中国封锁吗?

    我用这个问题问 AI。

    中国的 DeepSeek 给我的回答是:

    否。技术竞合催生共赢,封锁反噬创新生态。

    说得真好。

    而美国的 ChatGPT 给我的回答是:

    否。但出于竞争与安全考量,美国可能选择部分领域封锁以维护技术优势。

    嗯。果然是美国的 GPT。

    * 个人观点有杠杆的股票平台,仅供参考。作者 / 刘润 编辑 / 二蔓 版面 / 黄静