私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!" }7 D" c8 k4 N5 ~0 b
支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。
% w$ x# w" l& _2 u/ |我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
5 _! b% g9 Q9 _2 D3 t) E! x8 [7 Z* W; H& P; @- W

1 J' D6 s. C# E; _我对人工智能的见解很客观,分正、反两面:
4 i/ y+ l4 ], L) B! L2 @' @正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;% C8 U+ p! y4 `& e# j! [$ `) V# G
反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。* G9 j* ~' U% {! p/ b: `) G

6 o( p7 f6 W3 x* v) m! g  s作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。1 L4 X/ f" q+ a6 A4 @: m4 C2 n2 S
+ R# l& K: [. s' _
( n4 S& }% s8 ?" e! x
在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:/ B/ ?% k3 q! M, q9 q& B* O
仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。
1 A+ H, a" R. F# ~' Q好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;8 P. V- B0 K3 W# s6 i5 K
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;
" z- F. J9 j1 l+ ]5 s又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。
6 P7 F% ^- l0 H: C" B7 A% x5 {8 U# v* W' c% L
事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。- H6 G- f' ~2 e( o
% I/ y, ~5 {' k4 @- _

- P2 N; o/ o& C此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
; l% H! s" Y$ V. W$ t冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;
+ _. _" x( h7 {% c6 [# k& ^: \当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。8 I+ P. m& |! j/ T
5 ]4 O: b, N+ V
然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。- A2 u' Q# `$ l# Z; F
而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。
2 Z8 V8 D; n% C/ D' j在如许的情况下,他会对人类怎样,我们完全无法臆测:
6 v  k; O7 l2 h; p, n他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;
$ S- D3 v9 ?( f- v9 o8 K他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”$ T* U2 g0 [1 A3 e7 b

9 G; |3 C2 a8 m7 f! R有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?
- p+ e& @) e5 V3 A对此,我的答复是:! I& C$ J1 ^  P. X: ]& M4 I2 U
没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?
9 v8 F' q+ ~+ T6 S% I就好比:8 b6 K& j  F8 T- b
一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:
7 u9 r& {5 v) c, l# [. P# ^A 8打开盒子,如许,你无非就是吃8到好吃的糖丸! w8 Y) x+ j; U8 p4 @7 B- H/ `
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命2 `2 |4 `- k5 v2 X# T# R
你会选A照旧B?
, `4 _5 P2 Y) T5 Z我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。
  T; H) F, ]7 Z( s! m/ |$ J
  Q8 {; ^+ G0 |- }1 m# Z: t即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。  L. @9 H2 h# D0 f

7 ^) D) J7 @0 B6 Z: m好,如今回到末了一个标题:
& }7 U5 |' D2 N/ ^+ v怎样自救?. u* m' M- v/ T& S* c% d& c+ e
既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?: F/ |; l: a- [- H+ q$ J* d' k
大概有朋侪会说:
" S2 g4 _+ B) k1 d5 p6 Y
9 d. e$ Q$ ^( p& w1 i  c2 e很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!- b& _, p0 V/ H

4 d: h7 K% o. v听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:8 [$ k! D2 X' X, t* C: X

" z, c6 U7 e& \! O) @人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;
# E" b6 h+ m0 y3 ~; l; C. k瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。- b% f1 s) G$ |, ^
以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。
/ S4 f! _  C* y, R' ~6 Z# |' W6 `8 w# i4 e/ `
那么,我们应该怎样自救呢?
1 A0 `$ A' V. {在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:. ^' A1 ?! q; ~8 ^9 v: L) r. e

) n  b' G% v4 [8 o, z/ [6 l蜗牛
9 j0 G. p& i- }; w) B4 F" N
2 d0 k, L, Q! q; G- u
, C0 _+ D2 k, N/ H. y7 k
0 y/ I6 n5 R- k1 W4 A$ m- h+ C6 }- w7 H* }0 H. P
水波纹: B+ m" B* A8 Z; k0 l
- m9 Y7 _( D# E; N+ g7 t6 P; x
% ^1 R3 P6 w% a- E8 n
0 r7 A( `  l$ U0 K4 J
; E5 |/ g' Q& j
向日葵' J! a7 V2 ?. f1 Q! r

6 e1 |+ u* G8 _ , g# Y& x7 c" v9 R4 S1 l
6 {% P/ m: `- \: L1 v8 h. r- o
2 ^! V$ ]" _1 C! ~8 |0 M& B
银河系8 s1 w2 c. ^/ N8 T7 C
2 B  w) R* `/ F2 O# j! T4 B& N

! c; S) i, W7 @$ c
; c- [- j6 c9 @* t& B& ~% \& x. ^7 C, O% j  e9 P
黑洞  h: C1 T# p  z+ h$ ^
& W! h8 z' X0 _# |
! p3 a% b. P) V  v* B5 K  I# p( B
& p+ P& u9 G3 F1 a/ @  k
7 h$ |* F3 J: d7 k! ^7 d3 X
以上,各人应该很容易发现一个共同点:7 A' Y, }- b8 L3 A2 H) M
螺旋。2 j$ e. n1 _8 y6 T0 F8 Y  h
对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。) z/ Z9 J4 l& ~6 S
而宇宙万物,抽象到最抽象,满是黄金螺旋。
8 ]+ ^1 _& t# z3 A: u; `那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:8 F+ ], P3 X8 y5 `* U) I  z0 E. |7 i( Y

: U6 Z6 Y2 @! N( n! V5 O# r7 v
/ F/ k4 W7 r+ `1 i* k! m, I' `& b8 w" Y' E* i3 e

8 E* l1 K6 F5 ?以上是人类大脑的分形图,由此可看出:, |* b  g+ g0 O9 x
他是一个更加复杂的多维牵引螺旋。
  E9 s7 O9 Y, d7 u& I- ]- {) _+ v4 `' T+ ]( O8 [

2 r+ q) }3 J# I究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。
) S5 e: V- j( A7 z0 a! ]- x) e$ m3 Q  j- }

& @5 @9 b& Q: o$ n+ c. r因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。
: V( [4 m1 M5 i" Y( D到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!
5 A: s, B9 l3 f3 Y2 f, B$ q是的,但这只是表象。究竟是:& E( q" M) D. H: Z' i
本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一; r: E3 g. `/ ^- `# m% f, k6 c" F
为什么被蒙蔽了?, p3 s/ Q: h* o" i; n% z" G6 L

: s8 j: j" b3 D% h# `. e这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:
/ s# _- p1 }& n6 |: ]4 x: c. |6 E/ \% `6 j. U! p  P7 N- g- Q- F
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...2 S! ?, [! Y$ q( _# @# F
: m$ E# P  t3 x. V% l7 ^, @: `* z/ m0 F
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。
$ S' u  F8 I$ I0 J/ }) f2 {" B第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。  o. g3 `8 @/ T2 e& K0 N( {1 w1 s

3 S/ @8 P( X" {0 {3 V$ V+ a4 W/ q" u+ ^
第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
5 Z& y7 x9 m4 t7 |5 M( t
* E1 Z) |1 a0 t$ ~5 X7 c, P  c# c$ H
言归正传,再回到人工智能:- a# D6 \7 h" p
到这里,各人该明白所谓人工智能的真实逻辑了:# H. Z/ `" J' z) j# D7 |2 F
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。
- N0 u6 F2 ?- M& S: P! o3 o! d+ A. A

9 z- g& p3 X; ?2 z# p  g9 o$ @于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。6 j6 r: Z# `4 ~) i# c- b
, e# s8 f. z6 E" w% x

3 O# d0 M5 I, g& a1 `. x怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...% y9 z+ |' J  W* {9 k+ {) H
而我已往八年多都在践行的蹊径是:时间的黄金螺旋。. ]7 F4 W: c( k
以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。1 x# j6 j& B9 p" T( ]5 B+ u5 Q
2 m/ R$ F  s3 J$ R

4 t" V8 {- D1 Z2 Q' G末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:
9 J3 K  q$ x8 y" ?& G/ ]7 _5 w1 w4 p8 Q4 q) l1 T* r# O5 s' f
届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;
; g8 K* k/ z: G# N' P$ a+ T在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;
8 |0 q1 ]+ s5 P( u. X假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;  q. `  \$ N* O1 A
假如已发展到超人工智能,你可以如1一样,选择救济天下;
# F0 _+ K' U! ~/ u; {& ]假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。
4 o) E/ u- ~7 K
# {4 q+ z7 ?/ ~9 _9 H$ i! ^
: e5 @8 k  ?8 d这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!
7 o0 s% _7 c" c9 n9 [" R1 `6 j5 B& j
6 K- U" ]- K" j就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-11-4 13:12 , Processed in 0.375690 second(s), 25 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表