私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!
1 f! y6 _8 I2 @& ]8 Z支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。
, A, q9 S8 \9 G3 g* C6 G我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
3 ^: n' N( z: X7 O- V* ~) a
( _% {2 w& t4 o: J6 Z7 o  Z: ~' R8 Y1 W2 M
我对人工智能的见解很客观,分正、反两面:; B5 |/ t' K9 w. _8 ]; a: G
正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;
" V* ?% ]7 e( E反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。
+ m+ S! M; @* X" t" m9 O! @
, T+ r) ]6 v5 U, l; X作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。
* v$ |2 H) B7 R# P
4 J0 h4 k! H+ t  U/ r0 q% M
" P  J2 f& _9 `# w! a7 j在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:+ Q+ @9 y, m5 l) F: h. A* ~6 ~3 b
仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。! q/ N0 ^: I- n8 F8 Z
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;2 p7 V9 |" X0 Z. c5 U, }
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;: G8 m, ?" A! i+ g- V
又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。* U7 a, l. Y4 \6 X

  S& R8 B0 h( ?  [8 r& {) J5 N事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。
: Y! m9 K) a: e% f0 v- p( p3 O9 b; B, P( _. a) W4 @" X$ W! I

7 v7 s1 ]3 I3 G" T& u; `  V此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
( z% ]- a% w" o% r1 p9 p, p0 Y冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;" d6 J5 O+ _' s$ r% z* J  l
当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。/ E6 g) P: u0 \/ R

) m  c- S. `, w6 y! {然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。! W4 d& i7 w4 A8 Y! w/ y
而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。5 o2 {1 b2 t' z: ?6 O5 E; }* ]& S2 d
在如许的情况下,他会对人类怎样,我们完全无法臆测:- X5 V8 @) \" F% {8 @3 L! _, _" X6 R) X
他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;; O7 I6 K$ T" {, A" f
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”3 i6 m6 T7 }- {* W

0 f1 J" t3 k9 G' T% J3 V# j# x有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?) J0 w& I! _. P3 W! V
对此,我的答复是:) `: z- C6 h% C) q9 ~& ^
没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?
# U, m! i4 |1 v: f5 k就好比:
0 A8 ]  c5 N& g( |5 J! n+ n3 ]" H一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:" }4 L( {( M9 c1 _/ x* p9 l) g0 a8 a
A 8打开盒子,如许,你无非就是吃8到好吃的糖丸9 e4 m" Q/ i. P) d% w' \4 p& i
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命
- J( T$ L1 u1 |7 D/ o8 f1 o你会选A照旧B?0 Q2 B+ E# U0 {2 Z3 L
我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。
% g$ L# G" J% L/ o, ]
& D- g) U5 p9 D即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
* L- W5 B* l* m3 F2 u5 Z( V8 ^+ k# W5 w. A7 [1 Z4 d# Q" F; @) S2 D
好,如今回到末了一个标题:
# y0 Z: v! h+ s0 [+ E5 {怎样自救?
1 G5 E4 V1 Y; ~, m既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?
/ d2 a6 y- b; s+ q大概有朋侪会说:
8 {+ q9 t; [# \' E% P. n" V8 Y' j+ S& t( D1 @) Z9 h
很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!
' \1 g  B% @/ w) d  U. Y0 x2 h+ e6 y* z5 `+ \& ~+ A
听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:, ]+ V1 Y9 ]) \. v7 a: t
% d# r, o5 U! F5 Y& |
人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;0 a) h% u  p( ~8 Z1 o
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。
3 b( O$ |; y6 M2 V" b以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。+ s/ Z$ b" B( g" d4 T/ J3 M

/ \$ h$ E5 c: E+ R5 A2 d9 S- ?那么,我们应该怎样自救呢?- A: @4 \/ E# O
在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:
* x  n7 V7 w; m3 ^! ~( A. J
' h- i# x1 G# W6 a9 |% I& G蜗牛2 m; k7 E( @' W. w

. z# x$ y. P) i9 l ; u8 \* t& F) y$ O: o& T5 @: [

! d' V% Z5 d+ |. k! ]( q( ]5 o' X& A  Y( p$ h2 G
水波纹
* k4 |. s9 J* ^: G  R6 q2 I
9 H3 B+ w0 W" u8 U) C, Y/ f
) i+ O7 F) z$ Y/ c% H6 c/ J- ?: h& @
  x6 J) q, x# U8 {( C. C$ x) P: U3 O5 s% ?5 B; E
向日葵+ g! q& ^+ k% C: a" U

+ j) b7 m* W' L6 S7 y$ i5 t! @$ {
; p; I: J4 m$ f' X  u/ g+ d6 k( Q5 @- i/ X
8 C; E( |9 k; ?5 P" n) p7 Z" U3 j6 K9 P
银河系  h0 v- S. {6 c
) ~5 o3 [% m, M+ _9 n

7 n4 z9 v3 A0 \3 y& O5 A+ t
4 E0 K9 E- U) P/ X
# v/ u7 w# U: k* F$ T黑洞
# m, M2 W  g( d8 M
- a( K3 w, E) W4 {5 V + W) o$ \  p# b' y; s: h' j! U
* G! a0 J% f2 D
8 O' M1 N- i9 r. \5 u  |; S" `9 L/ t
以上,各人应该很容易发现一个共同点:
. i1 _% h8 X( h- i' ^( P螺旋。' m, C; w! V. j2 U
对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。* q) Q. T! p7 W( L
而宇宙万物,抽象到最抽象,满是黄金螺旋。
' n* x: J# F( c那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:
, a) X) j) G% E1 ~  [: Z+ B
1 \0 t2 J' F3 ]( q
, u! x$ C) i& @6 J7 n2 y0 o
, S' L; z# Y+ i: Q  j5 W
' T, V4 Q! M7 L; f以上是人类大脑的分形图,由此可看出:
( Q& l) U3 w) B- u0 _" F% h: _他是一个更加复杂的多维牵引螺旋。
- m  Q! M! I" S. a( T9 F; V% c
( q% a& e8 s0 i1 Q+ `: c# `- n% U7 U4 W+ \7 j" q, l" y: _9 ?1 H
究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。
/ ^1 {5 q  Y  ?4 R4 }5 k& s
9 W( \; ?' y" V) l- `# N# ^6 L5 o6 ]
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。+ _- b4 s" q7 b- @& K3 h; R
到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!
# w) i+ L/ C) f" V  _; {& j( f# ]. y% f是的,但这只是表象。究竟是:: @* N, Y3 h- R5 f1 ~
本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一
" w6 S$ Y( S( k9 P+ f( |为什么被蒙蔽了?
3 h+ V. d/ P: J5 L2 s3 }/ i2 o. |) o+ L' S* E; @5 ?" C
这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:( i& }9 k8 s( P
: ?1 u, o4 f) q7 s9 k
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...$ x5 e6 A7 }) }- U6 I3 V

, x2 b8 `( @$ s  I但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。+ h. F1 \- D. i" D0 z+ x3 ^( c
第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。7 `' u+ y' t4 v6 ~/ }. M

& \; S! X# Q& K' A; S# U1 e2 L& E; ]3 r# T4 E$ S
第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
- d& i) Z9 U( `1 d7 I2 w
9 Z& \1 H& B5 X9 K( o- C
: e( _& @, I) A言归正传,再回到人工智能:( W" `7 I' a, @
到这里,各人该明白所谓人工智能的真实逻辑了:1 K7 _6 F! |% ^1 Y) `% g- p  }- }
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。, F1 ?5 |! h6 W: g& d

6 k; L" L  s$ w
. E6 A- T# q# y于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。
* V# A& [, c7 Z
8 k9 J" k7 J( K( p  [! ?+ |6 c$ z/ L) K) ~2 [. }
怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...2 w* N. @$ [8 n. R( m" }! B9 q4 s
而我已往八年多都在践行的蹊径是:时间的黄金螺旋。
2 b: a# @7 u# G" q' f2 u' L以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
" J* c; h; t' {# v& ~2 |* D" Y+ P) M; E' e
# e* P: r, V) e0 y) O' e8 l$ T
末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:# }9 I& m. Z1 z& d$ T2 B" c
( ?6 j; L, n. Y9 g# T
届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;
: U, q# W. B! i" q9 W; C( s- N在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;8 \* N& C) b- L" @4 [: h0 H; U5 W' i
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;* t6 Z7 \4 d9 O4 z% x
假如已发展到超人工智能,你可以如1一样,选择救济天下;' z$ u7 n6 G0 c& \% \
假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。% f  ^# o. P2 O4 n
: u/ N% s8 s4 e1 z- c2 h2 m

+ K, q- R% }# D. ~0 G这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!# ^2 u* ~% t4 s/ O% I/ c
1 V5 h$ y0 O, N6 M: F/ R/ q; K. m
就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-12-21 09:08 , Processed in 1.011573 second(s), 26 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表