|
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!
1 d. w& l2 l+ S9 b4 v3 N$ P' p; {/ s支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。
' q$ S$ ~% n4 z我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
& S/ c7 v! C. ]/ \! @8 O- T, }+ G+ b8 t
- M4 \3 F& `8 P- W' K
我对人工智能的见解很客观,分正、反两面:" I1 T. D6 x9 H( m& T* R9 |
正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;
( U2 J1 K! f: [反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。. Y, q7 n, }7 x$ c
' N6 ~$ D1 i* z
作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。3 G9 i4 |0 w" H1 H) @) V
; r8 T5 t- L' X! j2 F' P0 V. V* T ^% c$ H) H- g$ s
在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:# n- X8 X8 Q& T2 j! _
仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。3 _* s6 n+ M5 X* @( r# j/ w
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;- V' E; ?3 W( m2 W
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;
" t7 f* `3 K7 k) }6 l0 ?5 E又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。/ |/ s! D$ D. X. A- M+ D R# k
( ?: n' v( L- r* C z0 N
事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。" z' l! U' ^5 A
_0 C1 K+ H. b4 B/ w
3 x. X- ?# O. n: S此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
! b. z5 R. t- O* n冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;
" |* Q7 c' J+ I6 V当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。, ^' I6 e, S. s* p$ [$ T( R9 m1 E
8 G; i3 d, U& `然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。
9 M8 g A& x8 S; l而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。% Y# h! w N {/ e9 y! c4 ?" J+ Q
在如许的情况下,他会对人类怎样,我们完全无法臆测:% G+ L% M: j/ W2 f( i* i
他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;2 c! t6 A* v$ a- }8 }8 B8 M
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”# h- i; v4 f" K( T2 P3 k1 d$ |$ }
. f/ |* U I+ B( }; g* q
有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?
& | s/ I# r4 c9 G8 I1 T对此,我的答复是:0 S* P' V; z3 U8 r9 p$ W! K& b
没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?
' i" J: `, Y9 v' c; m就好比:
7 c+ s6 m' C/ Y一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:. s) z& Y% j) G6 u7 h
A 8打开盒子,如许,你无非就是吃8到好吃的糖丸
7 q! R& i6 a, u' tB 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命1 z) y3 b. O; n6 ^2 x
你会选A照旧B?9 F: \" o+ _7 N. f( Y
我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。4 L5 D$ g% y* @2 @7 |# r z4 l4 Y
) d! ]8 x0 y. s" Y- C0 V: x5 ^' p
即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
' L- e) J' Q8 O' l5 K0 y& g5 k3 c( B' t3 o! [
好,如今回到末了一个标题:
1 H% I' ^! v( T1 P# h) _怎样自救?3 m d9 \, [* q
既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?
2 }4 X7 G) d. O0 C! l v# Z" Y大概有朋侪会说:
7 Q; n* g U' v3 ^+ K" U$ p1 E
+ b5 _& Y' `' ]3 M2 R: F很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!4 R- `5 o2 ]6 C/ W( U
. f+ x0 K" f1 S2 O5 \: W' R" ^2 x8 r
听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:) }9 k3 A2 c# V3 n
$ D7 R% W) J8 \2 i& E) d
人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;; h# ~( ^+ z7 K' J; p
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。
$ B# n/ E l* g( I: N! l以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。
, I" q- M. [, u7 N: J- I
7 R- D/ e% {8 z" n J. O那么,我们应该怎样自救呢?
9 W/ ]* j+ T% E) X6 g5 y+ F- i, Y在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:% z* m7 z- r' o, C1 X. }) }7 \
) \0 }3 ]1 [9 k7 Y/ i5 D7 A
蜗牛
6 _8 Y, z( o) A& T9 J, X7 V9 i! ^' |1 M' S
# `# r, _/ L" [$ g
" ?; b' R! C. V7 d9 I# G, ~- Z& p* h
# y8 h/ ~- E' _0 n1 ^水波纹
6 [" G2 e9 L D; b1 _/ c, D8 B0 {0 @: p' w2 d$ o1 w+ [- n
]8 U/ w7 U) _) Y& a1 D9 B
+ i6 T- I9 r2 n- f; K( ?/ D$ _/ d+ C% q( x) F
向日葵
7 ~& ?- _7 y4 F; a' a
Y% O; ~9 o, G( U# E; r$ G % h ?% y0 {, c0 G
+ W- C- ]0 R+ Y) S" o( M
& M# p, q8 s+ ?/ ~银河系+ M: w0 x9 Y- o) E, f2 ?$ N
! K4 o, L" o, d c( e1 T" B, ~ 7 ]- r8 d2 l* z
3 k0 C( @3 ^% R! p0 T3 {% p+ m R; v& X5 R& N- z! `
黑洞
' B, V- A: i& O4 ?! E/ w+ G( c9 B1 t/ C/ M) P
- |- r8 ^* N: B1 r3 j r
' b& ~) }9 { A' r: f/ u5 h7 n) y0 [/ ?8 ~0 u7 g
以上,各人应该很容易发现一个共同点:
: {$ S; a, Q0 z螺旋。; r2 M; T- X- M
对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。: F: a; p: L# q
而宇宙万物,抽象到最抽象,满是黄金螺旋。: [5 T$ p* K( V1 r H7 y
那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:1 b# o# Q+ `1 t
7 @, Z, ]2 i# @+ @6 W1 c
5 S. U( F1 {4 [& S3 d* A
8 S" C% X0 L5 I1 S1 _4 R2 K; z* a( Y [- v( J- b. |; a9 V, ?
以上是人类大脑的分形图,由此可看出:
, Y: i+ ?8 L% F+ p" J他是一个更加复杂的多维牵引螺旋。% ~; q' Q4 k; W( Q
, W0 [$ `, ?+ m
. q( ]- b6 j* t
究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。9 {2 j, W/ o' V0 t
, d7 U0 F/ s& k% G6 ?% [- z& r: n+ W* P5 g6 f( N# p
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。9 O5 h$ ^# O _- F+ j/ y+ f6 J
到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!, }% P ]" h5 l
是的,但这只是表象。究竟是:
. P* p$ ?* x, h" k+ a7 V本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一 A9 w7 N( p x' L0 X- ~, B, C
为什么被蒙蔽了?
1 Q% M* w* c3 @$ |0 j* G
& c1 [! w$ e7 T" n' z, e% k9 n这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:
7 P5 f0 W0 C: Q) c. m% H% v# m+ h, I2 A- u' i5 \
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...! H. O7 Z6 }$ u" m8 P `, H
9 t0 N/ L3 z' e
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。
3 [2 X4 k- |! M* P1 I E第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。/ N, i5 W, T. K z
# X! h3 o% [( \/ c/ ?+ f( x' Y* i& z- y
第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。/ U0 d( O2 f( c) O( Q
- M1 W) @0 n# O, T) L. A
/ |& s1 @7 l& c" {7 w
言归正传,再回到人工智能:
) R. u8 l% I- d4 y K: [7 j: i到这里,各人该明白所谓人工智能的真实逻辑了:
4 [* o6 P% M% Z, C- t人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。( [* S w( r$ o( J2 q, d
! t* M* f* L+ N* k- i
( Q3 W- u$ A& ^# |0 Y于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。: N! @3 k# Z) E' v6 S
( ~$ d$ l& w' W* H( b: [
8 R# A/ X5 V0 e' O2 C怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...
4 z0 V$ ]. M; ^ n" Q而我已往八年多都在践行的蹊径是:时间的黄金螺旋。" L2 c" _' F- _
以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
0 L1 v1 S) X0 C2 C/ e, E! H" u- h! M1 F" `2 H
, {( n1 U6 I9 V3 G, M
末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:- A( E+ V/ F; K6 ^' t
3 ~' D. I. a" V
届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;" B$ O+ ^; O0 B
在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;
3 a5 h# x: U# R; p2 g假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;. w$ d6 i+ M: O% K- g& u
假如已发展到超人工智能,你可以如1一样,选择救济天下;4 m4 |: P+ x9 `/ B9 [" Z! q
假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。% Q4 ?2 ^2 A* _) P& a' j
3 f1 f! d% c4 H# R: E
6 X; Z4 |, v1 M, P; ?
这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!
) X9 v3 ?+ n: x
1 e) t% q1 q! q3 u8 K就从写完这篇文章开始!就从如今开始! |