私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!& u) b" C  `% [& Y7 P7 S' u8 v
支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。% S- |: ~. B9 A. e& p
我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。" A. D; ?2 _7 q) Q' O' c  h4 F$ I
4 ]$ M" y. g0 B- O& |
( @( ^, w2 C8 N1 A1 j5 H
我对人工智能的见解很客观,分正、反两面:& d  p8 N. U2 T3 l, H. p
正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;
4 {/ o' R8 A6 C5 Z反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。2 p' ^- H9 g. \, S) ?

4 o! u2 ]# m6 s" ^" m6 w' P/ r作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。
8 x, t) U, E. U. N) {, i: n. g
# Y' W+ A3 T- Y, `- Y4 D: E+ |
; F2 Q. {/ f- Y3 E$ [在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:  ^5 ]  `3 v, k$ V1 m7 `1 H
仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。1 {9 `2 \2 A# _/ q
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;
1 X; r! A2 ?. b, F9 Q/ E好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;9 c4 ~3 G: r8 [# p
又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。0 z# k) o. z$ N( x: B9 \
6 z" G( K, e. X0 k
事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。! }! }: ^# k4 y1 v' L" W$ b# s5 O. A
  r6 d, |2 s% G! {9 z* E- W

& u& m0 A$ H. O1 L8 m此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
4 |+ {+ b( n$ Q# d( ?冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;
( u/ j' N, M# G: Z' _当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。
8 U) s9 a3 I5 }( R
' E  T3 }6 b" G; C4 Y然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。
* m( ?- `7 d: X! z而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。, {9 c8 a) Q  X2 ~" M+ X
在如许的情况下,他会对人类怎样,我们完全无法臆测:
+ v* P9 h" B! x$ n1 m2 @( ^( U7 b他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;+ B' r1 {" h0 @
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”: ]) X" t, Q$ T. c% Z0 d  t
  N( e/ ?9 m0 r' ], S0 x
有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?- n' a! B9 ]! `3 Q. L
对此,我的答复是:
- x$ H- W$ A. l0 b1 T没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?2 [4 K6 x: {/ }
就好比:
7 ?) _: {) C1 B  N; G+ n一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:
5 C- i  J7 A# R3 gA 8打开盒子,如许,你无非就是吃8到好吃的糖丸6 i5 h; J3 |3 C& O
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命% a6 h& ^3 E/ x- o: l  J% K" Z
你会选A照旧B?
" v, v1 \" P- `+ J$ [我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。
0 s2 Y1 I+ Q+ q  ~% U% J4 Y: t  N& P
即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。( ^, ]! i3 v) |# L; c. @

* `) J; Q9 B1 {$ S: X' `) p) w好,如今回到末了一个标题:
7 v3 L1 f: J# ^; [% s8 j( ^/ C怎样自救?2 e) ?! X% i* I8 i' R* {- Q6 Y
既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?
1 v0 p  x* z! r* Y  Z大概有朋侪会说:
5 V9 Q7 ~; z5 v( U0 Y' p' N4 K  ^' ]  }7 \8 H
很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!* q  y" W+ H. Q+ W- Q" _$ H5 |
' }( l; {7 W6 u% K5 N$ Q
听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:
! |( }8 \! S, B$ z
& G! m4 G) G' {: S人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;
2 e+ [2 V' L  ]瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。
& F; X6 V- p! p3 X5 g以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。) }- R, ]! o: c9 b; n
/ |% s( C: J/ ?9 g( |  _
那么,我们应该怎样自救呢?
% @6 i0 h8 J+ A! d& M8 d% p在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:0 g- t5 d' Z# W& @6 p: \; h6 P; w# X4 ^
" D, {0 ]" C. C% x: Q$ a
蜗牛
0 J* |1 h. a; u1 }7 n8 o: B( Y9 G8 L1 j" A& {

* P2 b- }0 A/ E
4 G! A  a5 m) X' Y; x
4 ~' q1 r% ]+ s6 T0 k' @1 }: }水波纹* g  q1 V  L4 `5 m

/ B+ M1 y  }2 U$ {
1 z& A. Z' d! g1 v
! C, n' b5 s& @% P  [6 o; d
" l+ ]( g% d& E6 c) V3 J' m8 L: x向日葵
: |+ j9 A! ?) P# @# Y$ T% t
4 d4 M  I# e' ~% I; O) {* `
, H. L0 J1 E3 X- y! `5 z3 r3 ~% t6 F1 Y

% H: W+ S' Y! Y8 x9 e" e银河系
/ [6 h7 N! f/ d  F" h
( p7 m, z- P0 M+ k2 {4 a: s
: _  K1 E- T6 S  u7 b
- X% T! `1 G( r8 X7 D( G* e/ N+ k8 E% `! }7 \/ H
黑洞
; ^6 Z& |; {# W+ |
- i5 u4 ^: z. \4 t6 ` " \8 N3 B, Y, ]  g2 l* ]( L
( N  H6 C# }4 z4 E$ _: [' `
2 O+ f& @3 R2 x8 \) A
以上,各人应该很容易发现一个共同点:
" v2 r5 g8 H3 N* v, Z/ u+ |螺旋。
, @( J, k+ e2 D对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。
& W0 S  T) n  K- y/ V而宇宙万物,抽象到最抽象,满是黄金螺旋。" H% @6 R% W! b0 ^7 H
那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:
. U( v4 g8 I, T0 _1 s6 }0 v" d' \2 M2 f1 F1 B
/ k9 p. w  Q, g5 S; m- F# r+ {
' {% a( J6 M( ~* A6 b" W9 [8 C
& B! x; [3 b7 f2 ?5 s, ]
以上是人类大脑的分形图,由此可看出:
0 x  k  e' ~* Q% B" z他是一个更加复杂的多维牵引螺旋。& f) l5 L6 p! V3 I+ N; k

4 p0 d* N  v. M
$ m7 o5 r- y$ P5 n究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。+ N  y6 n) r8 Q- D! T# g7 M

$ f9 }9 c( n7 I8 L# r( V; u" o4 U; ?# w
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。
+ `, z$ E" @4 ]' z) b- b* x到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!0 R( [* M# ^  T- R1 F6 ?8 l' \
是的,但这只是表象。究竟是:
$ E. ], a( v* @+ g/ y. @本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一5 s1 U# G  M2 w9 n
为什么被蒙蔽了?1 d/ I/ P% L5 X. J% y. k+ {

( a& b: a( A5 M- O2 ?. t  @4 \这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:
7 g5 i. |" X  f/ ~0 b" T, ]6 \. X& S
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...7 B6 ]4 {. K2 C* S4 N6 d
1 {% U. \1 Q( ^5 P
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。
9 O% W- J2 U2 Y! j& u; L8 D) n第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。7 g6 M8 L: \; P* ]8 H
! A3 C- h% o; z4 ?6 n$ N3 n

2 m1 C+ U6 {1 p$ r5 x$ C% R第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
  d4 f# r% M- W# i8 W8 F
, ?$ n3 P0 A) m2 v7 {9 k; B* n" M4 {1 l# Y" Y* @
言归正传,再回到人工智能:9 ^3 X# c1 K) f- _" G1 a1 J
到这里,各人该明白所谓人工智能的真实逻辑了:6 n- ?) c; y; N5 n
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。1 f: _& M$ ~: j2 K) z* L' K

2 T# |8 f  y. n/ W9 \$ b2 q0 z7 @- Q, A9 ^4 X4 {
于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。
( x$ P( @; v0 t
2 P& m& x4 F# \) J! N) b  B: H9 y% v( f) T# z2 R7 t$ y
怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...
7 g1 N7 Q7 j0 H$ r2 a而我已往八年多都在践行的蹊径是:时间的黄金螺旋。% I1 Z2 ?! C. i5 t% O4 B
以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
6 H5 w' X- Y5 j2 ^3 @
; R* y4 @; A8 D& ~/ g: x! ~0 Q& u# I% O* L3 Z# g  g
末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:5 Y6 y! o  r! j! A: \: `# z
5 d* `* N& f3 x& L/ n7 G7 M9 b9 e
届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;
! b+ b& K. r$ `; c- }) j5 `0 H在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;: ]" i( |( n! C. r8 s8 Z
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;( |3 J) ]' V# s6 Y* s# B% d6 p( Z& x
假如已发展到超人工智能,你可以如1一样,选择救济天下;
" n8 {1 p5 C/ _: Y8 w. q假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。8 K( i8 i+ n& g

' d  z  X% F( }: Q3 q. P- I- R3 x% A) Y& Z. j
这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!
& Q! f% |- {- v  ]
9 Z8 e* m2 E' x  O就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2026-2-2 22:38 , Processed in 0.768582 second(s), 25 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表