DeepSeek的热潮刮了快小半个月了,因为年前陪家人来了热带小岛躺平,一直没深入的想点什么,说点什么。
2 c/ h! W" o3 g8 G朋友圈中越来越多的人关注这个事件,许多跟风的讨论所关注的问题其实有些偏颇,可能是我们近代史被压抑的太狠了吧,错过了大航海时代,错过了文艺复兴科学大爆发,大家都迫切的不想缺席这次AI的新纪元吧。许多公司或产品开始宣传我们春节加班接入了deepseek,许多做AI科普的开始炒作各种议题,标题怎么吓人怎么来,这里我就不列举了,大家自己去对照。
) }4 Q! P0 D. m; a4 t先说两个事实吧,5 y3 e0 X3 z1 _; q- J* q* x
一是Deepseek其实跟各大主流模型的生成能力没有明显差异。其实我所在的一码千言平台早在23年底就接入了DeepSeek的Api接口服务,原因么?因为他一元钱可以用一百万tooken,当时就跟团队说,业界良心啊,而且还敢公开承认是在开源模型基础上做的MoE(小专家模式)。
- ], z% ^- A& M9 c5 D二是DeepSeek打开的可能是一个潘多拉魔盒。其实自从llama的8B模型出来后,稍微有点技术能力的公司/个人都可以快速的架构并部署自己的私有化模型了,为此我还高兴的(天真的)以为有一些toB的大模型私有化部的商机,但其实这是一把双刃剑。
! i/ R: P7 E% e& E5 O6 `所以真正的本质也许并不是大国的AI技术之争,也不是开源与非开源之争,而是未来通往AGI之路的路线之争,应该是有中心的云模式还是去中心化的Aigc小型化/私有化模式之争。
% G! _5 u) R* W/ a, r技术发展史上很多领域都有过这样的经历,比如计算机系统(无盘工作站,PC,云计算),比如金融系统(区块链)。
% Y' ?' q6 ^8 f8 x( V自Openai横空出世,业界认同的是拥有超级算力的中心化的大模型部署模式,有朋友与我深入讨论过政府事务等领域进行大模型私有化部署的问题,当时的成本核算是至少20万/月(跑一个开源模型的GPU加数据存储加人力的成本)。
7 \% }; `% U4 e: ^* e/ J2 a开源大模型的小型化提供了这样一种可能,可以低成本的共享各种预训练模型,可以在手机或普通硬件上快速进行私有化部署。) V) Z& _* n! t3 R& E i
在写这段文字的时候,我的观点还是:绝大部分用户并不关心模型和数据是否在本地,觉得除了战争、涉密、极端环境(如灾难救援)、灰色领域(如脏话模式)等场景之外,肯定还是使用中心化的部署更为合理。
; n o' `: c; O但深入思考,如果人类是被某种存在设置成去中心化的群体智能生物,为什么AI不能是呢?6 _/ k- F& h- A: C
不知道这是好事还是坏事?有又哪些机会?也许工信部已经在讨论如何规范大模型训练和部署了吧。#马斯克将审查美国防部支出##当DeepSeek下棋学会盘外招#7 S- e$ a9 S+ C- X+ s& j* M
/ x) B. ^) K- h, F1 `
|