私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!
0 v8 E0 t  H* [6 }& K支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。- f4 K/ H. }$ H/ J( A2 k6 I
我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
/ m4 }; B, H9 a" L5 g- _
: |$ O0 ?0 t8 @& n  ?8 a  A" O  t8 K& l# ?/ Z8 U3 k- e6 ?
我对人工智能的见解很客观,分正、反两面:4 f* f: e* ^. X0 ?% M
正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;) T+ x! |% _5 J8 [
反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。' R) W. B! |9 U
6 Z7 u" G6 y, l7 M) e
作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。6 o  Z7 e# t  Z# R' R

: s% L1 c# C% @* {+ y, j# E6 {6 ~2 m. g1 D/ X4 q# _- W& L
在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:
) Y9 w- F$ M$ y! h4 |- k1 g仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。. I6 T$ m) M+ Z! n# U: Q
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;
4 S7 T# a, [1 ^. ]好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;
, q! M* }, |2 ^1 r! ^, z( M" u  i又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。
+ b& [1 }- Y' V3 H0 M6 U
& ]. O& g3 O. h  ~7 d( U事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。5 R* F1 g+ }& C9 g$ |
/ Q3 I0 W8 ^  u9 G2 G  r- ]7 l
! {% L$ @3 R; o% U% B" \9 ]
此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:; Q# Q& x; w% F/ f
冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;% k1 Z1 I: p- Q/ X8 a5 D8 C# a- x
当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。: c# R- V) }! q

2 v/ R  _+ g4 d; u然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。; U- z* o% [4 E7 r: ?0 [, c
而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。$ \( S$ D' M% k9 p( b9 Q+ Z! l! E( i
在如许的情况下,他会对人类怎样,我们完全无法臆测:: @" S0 E! v' i' \& t9 a9 f
他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;$ [, |( V& ?% F' N
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”
$ M0 }# d( {5 P# V8 a$ s; G; @) l# y6 g# W! J
有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?  Z8 f: v6 N8 p, ~! q( m( n
对此,我的答复是:
, x5 p  {0 j8 q) G: p, X( `% j  `没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?
) g- t' a3 J/ V5 V  y/ E( ?1 E8 P就好比:
! x. {( c: Q' ~- c% u. t一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:9 e0 n2 d. h+ l5 c6 y. s
A 8打开盒子,如许,你无非就是吃8到好吃的糖丸8 ^' c! I  a8 c4 b/ n$ O7 O+ B
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命
6 K6 b5 w/ ]7 i+ x. W3 ~( T/ X你会选A照旧B?
8 P, D1 q5 H+ d我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。
& ^* p+ I; f2 |7 f. o- I
3 b" Y" }6 q1 B- y; i. h* |即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
5 J4 h+ r1 V! H; y# u) V% g- `. Z
好,如今回到末了一个标题:8 M" l6 J  j) c1 j
怎样自救?
; [! A7 p) z% D9 a& O; }8 K% H2 y既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?& T$ G9 b/ U* p% Y; Z/ g2 k1 H1 q
大概有朋侪会说:
$ l. I; ~9 X- F0 ]6 S: z. m# ~) S# Z' ]/ ]) u
很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!# y5 i7 c8 |( m, d, R
4 p: E, c8 _& s$ ^) Q; ]# y
听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:
2 ~8 Q. s2 _2 _5 Y# ~# b! ?
7 z) B7 n9 S, g3 n! ~, a! m人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;4 R% [# ?# {+ e7 x
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。& w, v7 c0 f( F" V" m  X" Y
以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。. w2 ], r  \! D% b6 ^+ j; X
9 f8 \7 t( _+ k+ q/ n
那么,我们应该怎样自救呢?+ y# {0 R2 A% J" c# g% \" T6 p
在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:$ Z$ E. n$ C$ |" G; w
6 j6 o2 Z0 M$ Y& I5 ]- ?
蜗牛1 ~, d2 E( Q( i' x/ ~: Q

. c9 n# C) X. J6 v$ w6 O- g
0 b: y* J- ^1 a. u# T* R. Q0 \) i, Q( N

1 I/ h  O, y, |. a  r2 \' m8 {水波纹( H' l1 X7 n: s7 v

! ^" T3 w/ [- S& J
$ m; P- v: r$ u  X- a% C" _+ b2 i8 W# c

3 o) [1 S, b3 p0 _9 O向日葵
: l9 Q" k0 i/ D5 i7 ~( r5 u7 K* j; A, d+ c) Y# Y7 e' \7 ^$ K' T

/ q1 T6 p2 Y0 Y3 q/ @4 {1 d: l- c4 m0 s1 o# J) \1 O& `8 T
. r; R8 b5 x9 t" E& B  X1 J2 l! T# F
银河系* f4 a; F0 ^$ l8 p; v
4 z2 |9 D) m( ~# p
' ~4 }* b8 \! l: j" R# H3 k0 f9 u

; {7 J! A8 D5 }- O$ t  w7 P5 s1 v- ]% B5 H$ Y1 N' S9 q
黑洞! U* c" ^( q! N, l/ K. B
& Y1 V2 n( A% F

. M7 p8 R6 C3 X6 V$ D1 x" S! F9 p. F" x7 A! m. y  i
$ \8 k: o% ~+ c# A: q; h5 a( j( v; U
以上,各人应该很容易发现一个共同点:! S3 B1 q" S- P, m. O/ b3 `
螺旋。
9 W: ]. d! t+ ]对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。! K( l1 H; Q2 {& T2 j- d4 |# z
而宇宙万物,抽象到最抽象,满是黄金螺旋。9 L. }( A6 n6 n# s4 L
那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:
, S1 T  F/ L5 A7 U: R/ u% B9 i8 K- j! C% V  d

! \0 R  E/ M: l0 ^5 [$ e+ c' F$ e) B% s

: t! q2 X  w6 @以上是人类大脑的分形图,由此可看出:6 p7 w- h/ x; N" ^1 O$ t
他是一个更加复杂的多维牵引螺旋。
" Z- i- y" T5 @0 ~# W4 {+ w' |1 ^( ~

3 [, M; |5 {- b究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。8 y2 a4 P( u. ?% L& Q9 S
8 W; F9 v8 `% M" C; a$ w4 ~
3 r, E6 H. B+ m/ c
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。
( K6 w* e) [. ]8 J. a6 ?& x/ D) C到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!' Z$ Q& ]2 w5 p0 j5 F) \: t9 J- a
是的,但这只是表象。究竟是:
" n+ S9 m& d: A- J# a6 R. n本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一1 `8 e' D+ c6 @# V: b* i
为什么被蒙蔽了?  G( i) j+ E" m' A
/ Q4 G; i( f: y
这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:4 t; O  |, B# w. A
& `" ^0 b7 F2 J2 w) `: i( t( G
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...# ]1 N% G5 k- i
) E. k$ |; k  m  i; f  k' m3 g, m
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。
' i: E. j0 R3 m4 N( D" o第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。
% g; s0 B; j2 ]5 F3 n& E5 f- y7 w/ R4 \) Q: t4 \) r

8 b  R! Q  Z' Q$ F第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。4 k  h$ W4 P! m1 C6 ^8 q+ m
! O# h5 m' C, w! b, W& P1 h

6 }/ T  X1 I6 ?" P言归正传,再回到人工智能:7 F( ?) F3 S7 U( |  l& Z+ Y( C4 v: ]
到这里,各人该明白所谓人工智能的真实逻辑了:2 n0 f. Y' ?9 R1 G8 K
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。9 ?* \" Z. ]! V# A; a9 s& W4 Y8 h

7 H* n% G3 s+ L, J1 H" B/ a/ b4 V* d) b. `
于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。. e& _3 _) H2 {$ K5 [( t

  r1 N8 [8 E$ ]- H
; }6 N% z: E* r1 C  ?, `  y怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...
4 s$ [; _" Z1 f- f$ [1 I而我已往八年多都在践行的蹊径是:时间的黄金螺旋。, _# H  [5 \  |, W) A% i
以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。/ H! h3 m' v& l
0 [9 y; o. i; @, L

1 S# e$ ~% m7 h. _, a# S7 q末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:, {& l. z, }& E8 @6 ]- `- _; T& h

* w& w4 W, p' h3 s5 T- B7 ~届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;8 y: L' ]8 A* l1 J% Z; \
在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;1 L+ c+ e: L7 \. z4 W
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;
) P% W& ~3 R& x. t) b/ ]假如已发展到超人工智能,你可以如1一样,选择救济天下;
  \( w& j0 {! j5 n: X  n假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。
6 E3 S+ p+ q/ d( H3 s7 |# Y3 `! g; j+ L) u
$ Y  v8 w, P: E) [; A9 V
这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!3 P9 P" z, c" q$ |1 L

6 {9 W; e% O! ~  p就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-9-16 23:27 , Processed in 0.715150 second(s), 26 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表