hahajoke123 发表于 2026-2-13 07:48:46

基于Transformer架构的大语言模型永远无法实现AGI

本质上现在AI给你回答的问题就是基于对一些人类已经发生的数据,通过概率给你输出结果。也就是说当一些错误的信息越来越多(就是垃圾信息),最后AI也大概率分不清什么是事实,什么是虚假信息。所以你会发现每一代模型一旦出现不久就越用越笨,主要是因为它的数据被污染了,它这个机制不可能产生AGI(通用人工智能)。
因为它的机制最重要的叫涌现,它是根据上面已经生成的所有的内容来去倒推下一个字是什么。AI每生成一个字它都会把上面所有的内容再看一遍,所以说你会发现一个问题,就在于AI只要它的文本或者你跟它聊天聊的次数多了以后,或者你们来回几十个问题了,它消耗的算力是指数级的增长。并且你会发现再先进的这个大模型它都会限制你们的对话长度,因为你聊多了以后消耗的算力连美股都负担不起。我们现在用的所有的AI其实就是美股的投资人给我们买单了,AI现在主要的作用是为了炒股拉市值的,然后我们用的AI是副产品。我们现在用的AI之所以能那么便宜用,是因为要拉升股价,就要拉用户数。比如某AI一年烧280亿,只收可能80个亿的费用,有5亿用户,付费的大概有800万,每个月20美金。如果说AI真的要盈利,要么费用提高几倍,要么用户数再扩大,因为它这个机制是赌概率,就会出现幻觉。
越复杂的任务,比如同时调动几个大模型来生成工作流,出现问题的概率会增加。假设每次出问题的概率是10%,能保证90%输出想要的东西,做一个需要调动5次大模型的工作流,最终一次性成功的概率是(1 - 0.9^5)×100%,你想想就知道,现在大模型到不了通用人工智能,这是数学上的问题。人类最先进的大模型都解决不了幻觉问题,它不是真正理解,只是在搞概率,这就是大模型。你这个东西只要复杂一点,一次性生成正确的概率可能只有40%了。
它无法全自动,永远都是一个人加一个AI,确实提高了效率,单位时间内一个人的产出更多了,但达不到它说的那些美好蓝图。按照招商银行的定义,它是辅助生产工具,不是第四次工业革命。

oio2g2FDFDf 发表于 2026-2-13 07:48:53

有道理但感觉不太对

rsjdnots28 发表于 2026-2-13 07:49:04

AI本来就不行,问问日常基础确实没问题,但只要查数据资料,数量一大他就会偷偷给你编假数据,我是知道数据去查还能发现,有时候拿正确数据纠正他,他依旧改不过来,而且还有降智环节更恶心
对我来说AI的强项是做图做视频模仿音频一类赛道,碰到严谨的数据越多越冷门越容易出错,本质上就是搜集大数据而已,用过的免费版体验chatgpt>所有国产,至于会员版会不会在整理数据上达到万无一失就不知道了

kj1x5g2ift 发表于 2026-2-13 07:49:34

talk is small, show me your paper

gqv1qJ2308 发表于 2026-2-13 07:49:52

rickyffv 发表于 2026-2-13 07:50:37

科目四

sunonl 发表于 2026-2-13 07:50:59

记得之前有人说过,agi必须要在机器直接感知世界的前提下才能建立,现有ai本质是喂人所给予的数据,所以构建的是人的认知体系,这些数据本身就是二手信息,ai学了这些二手信息输出自己的三手信息,离世界本来的面貌就更远。我一直认为现有ai只能像电脑一样做人的智力延伸,但无法超越人的认知帮助人们解决人类无法解决的问题。

prgfq6f6c 发表于 2026-2-13 07:51:17

来抗吧说你老冯

oik6f8RDFDf 发表于 2026-2-13 07:51:30

人脑也会被污染,被污染正常的,恰恰说明和人一样有某些缺陷不完整,污染通常基于不同环境角度得出不同的观点,导致结果冲突,实际上人类很多观点必须是主观,你想乐观都不行


,就导致必然污染,所以高知或者高级阶层家庭的孩子,可能所谓的在这个制度下的某种意义上的污染比较少,具体情况还得具体适配……
页: [1]
查看完整版本: 基于Transformer架构的大语言模型永远无法实现AGI