私募

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!
6 N! N, R' z& w) M支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。
" ^% V& U, n5 D! ^我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
& x' V" W1 y* F* j4 L, E( d+ c/ w/ \+ o% m

6 @4 Y* c0 D( x, `我对人工智能的见解很客观,分正、反两面:' B0 x; q! c- p+ q6 |$ w
正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;/ `1 t# D7 Q0 b; Y* `
反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。- c- s$ I' H! Z. f+ u' o5 P+ s$ Q
/ }, I3 b3 d- x; Z5 T7 p+ b
作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。
% Z( J( v+ w2 \2 _; W& E
6 a3 q  ^+ x$ X) V3 ?. w( n+ O2 F0 q9 e7 K+ \) Q, u3 x$ l& h
在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:" i8 ]$ J' K7 H; E: O! w
仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。
1 ]8 x/ K- q! B5 g好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;  R# {7 d  ?) {% V2 S2 ^2 g
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;/ N: L+ d; \6 @, n6 B
又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。& M% N- G1 v# I" q) E! \

( A4 o0 a  h; ?" r事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。, ~. {* z- N% Q; N# R3 j3 c, W0 f
+ N! \7 w' s2 Q* `
; q/ ^. {: s; S9 k- x: X
此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:
: k2 Z+ r3 y; m- U4 p; L( `冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;% t2 A. g4 h6 r* w
当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。
2 |+ Q* F0 J; u
( G7 F) D, u  ^8 k" Z' l然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。
8 m7 v9 c2 X' I0 e' Q3 E$ T: U2 q而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。
& w+ A5 a, o0 Z2 z在如许的情况下,他会对人类怎样,我们完全无法臆测:
; Y* @. w# ~# K  T& b他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;1 u: \, |# j& ^- }
他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”
9 d' A0 X) Y6 [
9 d6 K4 p% a, ]4 L3 i2 G有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?- @( ~7 n! v2 P2 e1 v& H1 {
对此,我的答复是:
2 R, b8 k! B7 Y  o# Y2 P- l没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?. @. S3 L( b( |) q7 q
就好比:" _2 s0 E6 C$ O$ r  d/ O/ z: ~
一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:' }8 r# m. e# n" u
A 8打开盒子,如许,你无非就是吃8到好吃的糖丸
' }0 t% \# c2 jB 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命
! x4 i0 {& \" ~  Z你会选A照旧B?
5 ]) L/ X2 a# N我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。
# v$ B" |5 I7 c
( O, Y. E6 E( X) K# ?0 i+ \即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
4 ?) D. U% q' _) E
/ [& C7 U, d3 d+ w好,如今回到末了一个标题:
! p+ }+ D, P- r3 {( W怎样自救?
# L! o- t" O/ e3 v5 ?7 R既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?3 T& q. u; y! h. j- T0 |! n
大概有朋侪会说:5 W$ c# A% s2 h* f" z  _
  @! y. q7 e8 z( L7 c3 w. B
很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!
7 _: m9 J( W: v9 u& j7 K. N/ U% ~$ P7 p6 c$ o: Q
听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:
% j! X: S1 l* g$ W/ Z# Y% t+ U& r6 ~" C) ?5 _' M% Z
人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;- P$ K2 c9 y( N5 M' E3 ?" p7 a: q5 w1 e
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。
# y1 K) p) b9 f4 v" C以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。
% J8 m  _; @# b/ N4 B; g" A. V! g& i7 D
那么,我们应该怎样自救呢?7 M* l& j( h* E! _
在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:
9 E* r8 Z# w0 E# k0 w+ K
0 c" s* h' g( w) Y5 M" P+ P  q蜗牛
- Z( {3 Y+ c* J9 i  R
1 u, D* l2 R3 [  O . q7 u" X# S& l4 w
$ c9 U( v5 ~6 x0 b$ N+ U

: x# I% [* ?& y7 U% v+ {; y: F水波纹
4 P+ }) h% C$ R: W% m
, e2 r: p; P" a+ }- N0 Y& g: ^ ; O$ ?  S7 N2 n0 [

6 x7 g+ D4 ~4 t# v( \$ o6 j0 {1 {6 ?: X$ v
向日葵
& }7 B! w* P, M) n
4 g2 W1 `" u) r
$ N3 T1 h$ t, m, c4 |+ F1 w0 Y' h! [. t4 v. D4 S, E
/ V8 D  T' l+ U- H
银河系% A: p+ a/ X, X
. H8 l! K& |; o1 L3 O7 r

6 [- X. Y( m5 j0 v: |
3 [  Y- R8 o/ r+ g  N2 \1 d
/ d0 e8 D; ]" A+ t% }; |5 K黑洞' i/ }4 r9 g8 A) V

; n3 [" d) }! m" o3 ^6 Z/ V
. t% g7 H: \! e6 e" [- v6 ?
. r  _5 b* _& w8 d
' ]. {3 l6 ~6 C0 P6 s3 i$ y3 v$ c以上,各人应该很容易发现一个共同点:, C9 o% j# u" s2 n8 f
螺旋。
  y' @7 r3 K3 T' v对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。
$ }+ x. Y2 C: U$ T' n而宇宙万物,抽象到最抽象,满是黄金螺旋。2 y, J+ ^/ A; e+ i2 n
那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:( ~* j+ j. u3 U6 {/ |5 N0 d2 @& T

# r2 r2 I& |% H; h: p & V! c( x# F- d* e- D- E
! ?0 I) Q$ e/ n8 A" t0 A' q5 V
- U7 S  ]2 n- D- E; o
以上是人类大脑的分形图,由此可看出:
( b( V6 R8 @4 I$ |2 \) W他是一个更加复杂的多维牵引螺旋。( K8 i& [: P" M# e. U; d$ v
4 L& `  f% c' e

( ?8 c  Y! r$ O( \) Q究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。
! l* c& {) U  m( w' ?( A8 b: u! {( z0 \! x; G
3 i5 o! q' R: T* [
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。9 p  X0 q6 n* g) X( P9 j, Q8 _
到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!9 G1 A( Z) R, K& l
是的,但这只是表象。究竟是:
& w8 O7 e8 T2 B本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一" `4 C$ j% v' r7 u' `3 K- e4 o
为什么被蒙蔽了?9 n6 e# F3 |- ]# p3 b4 C

9 ?% v: F8 ^* I. A这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:
3 Z% l% Y5 p+ I6 n8 J5 [0 i9 d7 K; T) U' w% ~6 Q, w8 m
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...
8 B& a0 M6 w. Z6 T' e- q# X5 S) h* N: \2 |' Y1 S( z; n* F# F
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。
& `( e$ F* g* z/ }4 k第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。
; `4 T& u5 N. _7 h& g8 }1 i) [8 f5 J& D
7 f) n2 A. T$ Y/ w" q) Z& Z) h
第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
' Q8 l- T9 D3 t- v+ z8 B9 Y; e, |) q+ v

" A1 n+ e, b5 D言归正传,再回到人工智能:$ j+ Z1 z  F/ X! i% b' @9 H7 \6 n
到这里,各人该明白所谓人工智能的真实逻辑了:( F/ n; u; X- O  [2 p: N
人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。
/ a/ N: x1 O& l% L' s
. u  l$ x% ]) l3 J1 }) ^1 [
$ _* f5 K2 `1 P6 f+ u! l7 n于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。2 _0 ]' L4 N0 N( c. x5 X( f4 x

& w! M/ |- x# y- z
' S9 ~5 g% W- ]0 Z怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是...
* R6 r6 u5 e! t- ~, |0 N而我已往八年多都在践行的蹊径是:时间的黄金螺旋。
) s! J: |  u, O( O& w% n  {以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
, x$ D; r; Q+ {) d, l
5 }+ n' z6 v5 u3 J4 e3 _; s5 w# @
+ g& @& b+ T& w* r' e! M5 Y. L! x末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:
; S) `+ Z" a; j$ _! l7 \2 ~
+ m4 K2 G4 t- N" h届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;
# ]  x( G9 ]7 `- J8 K. l在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;: \+ R  b8 y: E. p! a- k! n
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;
) k. W2 @, ]- w/ S. n, l假如已发展到超人工智能,你可以如1一样,选择救济天下;4 z1 y# |5 }. F4 g% c, o
假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。
6 l# A. t2 R5 |1 O1 Y! I- b' q6 l+ M) _9 D; i% v! A

" J9 C0 N" \  F- i& M这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!6 _8 v9 J3 L/ K' I8 |
* H* X+ m3 B) @  n
就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2025-7-28 23:56 , Processed in 0.398664 second(s), 25 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表