私募网

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz

转一个张波关于人工智能的分析文章,大家就当故事看吧!

[复制链接]
发表于 2019-5-23 17:14:30 | 显示全部楼层 |阅读模式
迩来,关于AlphaGo人工智能与李世石的“人机大战”,甚嚣尘上!
: P$ _( C- a, r$ Y支持者众,欢呼雀跃;反对者也众,包罗比尔 盖茨、霍金等大家。) j" r" V: u. a5 Z; t( I' j
我天下的“波粉”也在热烈讨论,并渴望我说点什么。本日,“人机大战”中,人工智能已3:0遥遥领先,那么我就说点吧!以我所洞悉的天机,关于未来、毁灭与自救。
: w9 t& {+ k, E3 w6 ~4 }5 b& @7 c2 e- R$ _
4 u8 d5 n- k) X
我对人工智能的见解很客观,分正、反两面:
, F6 X  c' T, I正面:在发展到超人工智能前,在尚能被人类控制前,人工智能是正面的,会对人类产生极大资助;
) I$ \% i8 S& E反面:一旦发展到超人工智能,人工智能绝对负面,本纪人类将被其毁灭。0 ]6 {9 U& X0 ~
# ]+ o- O" @- Y. p% w# p
作甚超人工智能?人工智能的三种形态中的最高形态,也是人工智能的相对终极形态,可完全自我高智慧思考,远超人类智慧(至少100万个爱因斯坦的智商和),前两种形态是:弱人工智能,能人工智能。, u  @+ Z( l! E( y* _

9 e; I% d0 h: P7 b- y+ }, z) Y" D4 H0 Z
' r2 q  h# p# n' I在人工智能处于前两种相对低级形态时,他和本纪人类此前数万年的无数科学别无二致:
: ]5 o  n: o7 Y+ ~9 P+ \仅仅是一个客观的科学技能,本身并没有善、恶之分,关键是用这个科技的人。人假如是善的,他就是善的;人假如是恶的,他就是恶的。" h/ C- X# O4 l0 Q& i
好比:刀,大夫用来做手术,他就是善的;罪犯用来杀人,他就是恶的;. E8 m' i$ ~7 Z% ?4 z
好比:核,人们用他来发电,他就是善的核能;人们用他来爆炸,他就是恶的核武器;  ]  s: s/ T3 e8 Z9 v: E
又好比:人工智能的始祖——英国的图灵,他发明的人工智能最初形态——图灵机(如今的盘算机)破译了纳粹德国的“谜式暗码”,令二战提前数年竣事,至少救济了两千万人的生命,这就是善的;但另一个极度,许多年后,开始于图灵的人工智能发展到终极形态,将反控制并毁灭人类,他就是恶的。届时,濒临殒命的人们将感慨:早知道,宁肯当年图灵别迈出那第一步,当年救济了两千万人,如今却毁灭了一百亿人。- g! G7 s1 s/ Z$ ~3 |# S, i
( M+ a8 X% c' x& ?2 Y8 e
事物的发展通常就是云云:出发点是救,尽头就是害,对立同一。# s; S5 f2 f8 a  o
$ W& ]1 ~% Y% I% M

; R: p5 Z' k4 L1 }8 V此前几万年,全部的科技都被善用过、恶用过,但人类从未因此而毁灭。缘故原由有二:2 n5 l+ v5 m& n; X
冷武器期间的科技,即便被恶用,也执偾局部粉碎,8至于毁灭人类;5 Q' ^& }8 t( I% ^1 V5 W# M
当代科技,固然足以毁灭人类,好比核武器等,但邪8压正,这个天下上,究竟绝大部门人是善的,因此,总能转败为功。
7 n8 V3 `3 p# d% v- [* L1 W# {% \8 j/ b
然而,超人工智能完全8同于此前数万年人类全部的科技,他是具有独立善恶性的,完全8以人类的意志为转移。
! r* ^% r% V& l. x/ P7 S/ h而他的智商远远高于人类,人类在他面前,就犹如蚂蚁在人类面前一样寻常。
" p* f$ T. U8 D# r7 R在如许的情况下,他会对人类怎样,我们完全无法臆测:, i9 [$ M8 |/ \! |8 r
他大概会一念天国:“人类这群蚂蚁挺好玩的,我把他们圈养起来,作为我的宠物”;
( M- Z- ^; ]* @. Z) M. F0 G9 V他也大概会一念地狱:“人类这群蚂蚁挺烦的,闹哄哄的、还这么多,一脚踩死他们,我独占地球。”
# G; F/ w7 M# Q. c1 S! y( ~2 t; z, `% ^* K
有朋侪问我:既然超人工智能有大概善有大概恶,你怎么就知道他肯定是恶的,肯定会毁灭人类呢?
  }  |: f; l( X$ H# s, g: {对此,我的答复是:" V5 y' i( P( I' \/ O0 }+ V8 d& e
没错,我8知道。但同样,你怎么就知道他肯定是善的,肯定会善待人类呢?6 @6 h! c: o9 f& Q
就好比:8 b8 D! l+ j3 n$ r/ ^- ^4 ]
一个盒子里,有两颗丸子,一颗是糖丸,吃下去没事;另一颗是毒丸,吃下去立即死。你有两个选择:
& t1 S, J4 b9 p9 v/ mA 8打开盒子,如许,你无非就是吃8到好吃的糖丸5 J( I3 c* w  k) h0 V, u' t
B 打开盒子,如许,你有50%的大概吃到好吃的糖丸,也有50%的大概吃到毒丸立即毙命) z% h9 C& i/ @. x: @  |9 q  u
你会选A照旧B?" w6 V, |- b/ j7 l
我想绝大多数正凡人都会选A,但是很遗憾:如今的人类就很8正常,正在选B。  g$ n5 P, ^4 Z; ^5 d

' R6 I5 a% Z& B' E3 \, l; o" K即:本纪人类,正在,打开,一个潘多拉魔盒,这个魔盒就是:人工智能。
) Z, e9 J8 f1 R# T* Z2 V$ q/ k( p: x- V# }5 W
好,如今回到末了一个标题:
* u/ r  l6 F- `% U6 P1 g) y7 i怎样自救?
2 }' \8 Y, @! A- Z4 v  x# p* Z6 Z" ~2 f既然人工智能终极将毁灭本纪人类,那么,我们怎样自救?
$ ~# n4 }& Z. n大概有朋侪会说:+ J2 O. o' k, Z
& k2 ~& n& T! [& i- h6 [
很简单啊,恰到好处,先发展人工智能,在低级、高级人工智能阶段,让他为人类充实服务,一旦快发展到超人工智能前,我们立即就克制发展他,如许8就一箭双雕了么?!
3 k9 r2 I7 D+ e& z4 a6 V
2 ~! M) H( I3 K6 u听上去很优美,但究竟上:鱼和熊掌兼得的一箭双雕,从来都8大概出现。缘故原由有二:$ j+ \0 B; z/ v$ n, `% B/ b
% I9 a, A: P9 ~: i" \% p
人性贪婪:人们渴望人工智能成为超等围棋高手克服人类,实现了;然后未来人们渴望他帮人类彻底管理天下饥荒,实现了;然后人们渴望他治愈全部疾病和癌症,实现了;然后人们想他能让人类永生,永生8老,实现了......在这个过程中,由于人性贪婪,根本8大概恰到好处;  w) H- ?4 d& |% l/ h2 w$ t
瞬间质变:从弱人工智能到能人工智能、再到超人工智能,其加速率是越来越快的,而且这个加速率是数目级递增:一个人工智能体系花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时间,电脑对于天下的感知大概和一个四岁小孩一样寻常;而在这节点后一个小时,电脑立马推导出了同一广义相对论和量子力学的物理学理论;而在这之后半小时,这个能人工智能变成了超人工智能,智能到达了平凡人类的17万倍。这个级别的超等智能不是我们可以大概明白的,就好像蜜蜂不会明白凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作智慧,把85的智商叫作笨,但是我们不知道怎么形容1000000000000000000的智商,人类语言中根本没这个概念。
3 `, |% P$ l) c4 @! ^4 N以上,从能人工智能到超人工智能,大概就是半小时以致几秒的时间,瞬间从量变到达质变,人类根本无法恰到好处。
; J0 v$ \) |! d# e1 V7 l" |3 Z  a% E& H
那么,我们应该怎样自救呢?+ `+ a! w8 I- C- E; s. z
在答复这个题如今,我们先来看几张图片,都8特别,都是各人耳熟能详的东西:1 S9 `7 U- |/ S9 p$ K6 f

$ C$ u4 w  b, r/ e0 H' f蜗牛- n+ A0 i+ h1 u6 W5 h4 G5 q6 \: m

2 o+ B& w4 ?+ b( T+ \
2 [% v" j2 r; i" n) T) R+ U' Y9 W* r9 {
+ F, F0 z( I! x  k: o8 f8 ^' h& U! d
水波纹
7 _% c1 K/ H; {& x8 M
$ p* S$ R5 y% \: j) T! T: A 4 i8 |& |2 ]- F9 F# U# |' |9 }* S; h

1 [* v) k: v8 q+ a6 P6 ^9 ~% {0 \# k
向日葵2 q) N! b7 n/ N, r
: U$ s- k, [5 ?
- w6 \) \2 L/ ^" b$ O. A# W- a! y
8 Q8 g2 j* t3 V1 L) i) m0 j4 ]

! w. z) K4 _* i* f# V银河系
5 ^9 D* [3 M- R% a1 h) n5 I4 p1 A; Y* a6 n4 w- ~# w% r. m1 F- S
: E) q7 _: A( `5 {2 E. R
) U; H6 a* z% N9 R% b' r5 a

8 C7 ~+ [  J" x黑洞
. k0 A  j- S' T
* \: w- B" A1 h+ p6 |) m ! G" a9 t7 ]/ @; c
- j# j9 V- C: |

; @2 }1 X  `3 G) ]* K; N4 n以上,各人应该很容易发现一个共同点:
0 B5 n/ ], s1 r# b# ^* {螺旋。
7 I" {) K( z3 K对,将以上全部抽象,就会发现:实在它们都只是一个个螺旋,而且8是一样寻常的螺旋,而是黄金螺旋。7 f! }# ?; z1 r0 y
而宇宙万物,抽象到最抽象,满是黄金螺旋。
5 F, c6 l* y: A( n那么,人类大脑呢?固然,也是黄金螺旋,而且是更加复杂和强盛的黄金螺旋,如下:
! H1 d$ N% R# S7 H
& B2 i* u& ^; ?! F6 Y% ?  R & g; M8 s. u0 B8 U9 ^7 w

! q- W3 Q! @) K2 U0 r$ V, ]0 z* D$ h  V8 J
以上是人类大脑的分形图,由此可看出:
0 N/ v- Y6 W- M4 |' U他是一个更加复杂的多维牵引螺旋。
  l- r& f9 |5 a
* b4 \4 G( J* \* i) B  ~9 D4 ~- }# X' T) }2 Q2 R1 _( Q9 V
究竟上,人类大脑由1000多亿个神经细胞构成,相称于银河系内的恒星数目,但其总质量却与一个罗马甜瓜差不多,远远8及银河系。因此,毫8浮夸地说:人类大脑是迄今为止,物质宇宙中最复杂的黄金螺旋,他本身就是一个小宇宙,他潜伏着宇宙终极的“达芬奇暗码”。
7 O% g$ D6 V! \  m& E' J. ~1 {0 [! l0 [. a0 R/ Z
" Z' E, H. D, Q# _4 K
因此,当前人类去发展所谓人工智能,完满是南辕北辙,宇宙中最智慧的智能就在我们每个人身上。
: n6 n* Z  y6 k% {+ M% r到这里,有人会问:可我并没有感觉到和我一样的人类有多智慧啊,各人都很平凡啊!
) I: v" Y4 B# P, I是的,但这只是表象。究竟是:
$ {/ t3 m, ]( @% h( J本纪人类的大脑在本纪人类诞生之初,就已经被蒙蔽了绝大部门潜能,只发掘了亿万分之一) G0 H- D% o6 b2 }
为什么被蒙蔽了?" b' i9 U% U4 x- `8 \' M! I/ ?
, n1 ?, n/ m: M
这个说来话长,已往几年我也曾发文谈过这个话题,恒久跟随我的朋侪都知道。限于篇幅,本日就8详说,仅再简单说下:
5 Z8 {8 T% [& g' U) j3 j* L" _4 Q* _7 p8 O' S4 @# k- x6 v
上文我反复说到“本纪人类”,是由于如今是人类的第二纪,此前已经有过“史前文明”(亚特兰蒂斯人为代表),他们是第一纪。第一纪人类和我们完全8一样,我们从诞生之初就只知道向外在物质天下索取,而从8关注我们的心田天下(即大脑),而第一纪人类则完全从心田意念天下出发。颠末数十万年的发展,他们的意念已非常强盛,可以用意念来作为能源,驱动他们的天下;可以用意念实现瞬间位移;以致可以通过意念,穿越时空...
4 [7 \) s: U7 H, k# U9 B: j/ M" v0 c  w& k
但物极必反,终极第一纪人类毁灭,也是由于过于笃信本身的意念,却完全8关注外在物质天下。这跟未来我们第二纪人类的毁灭缘故原由完全相反:只知道向物质天下索取,而从8关注本身的心田。! N# z( Y! i$ b/ G
第二纪人类也毁灭后,第三纪人类,才气在前两纪的根本上,公道地均衡内在意念天下和外在物质天下之间的关系,人类由此真正大同,此乃后话。
: l# G' q4 G( i
% P8 Z. y9 ~& j2 e
- y, F, g/ t+ Z4 P4 U第一纪人类毁灭后,他们颠末数十万年发展的意念却仍被完备生存在本纪人类的大脑中,只是,从本纪一开始,绝大部门能量都被蒙蔽了。
9 y6 x% O9 ~, [
# P$ r0 e8 K- K3 w( v' F/ R) R
2 f* b  y# X/ D% c) `言归正传,再回到人工智能:2 n; q! Z" w& e1 S8 f
到这里,各人该明白所谓人工智能的真实逻辑了:
$ o& _  @: v: B( o) }& \" Q人类以为本身的大脑8够智慧和强盛,渴望通过发展人工智能,让呆板向人类一样思考和学习,逾越人类,并一步步资助人类。以上逻辑是错误的,正确的应该是:人类如今的大脑就已经富足智慧了,只是人类没故意识到。6 F0 y$ N, m0 N) B5 {3 T0 y
$ D; h4 r9 O" x& E# ^6 D

: ]0 j# f- H# [; X于是,答案已经出来了:大道至简,从人工智能“魔爪”中救济人类的,恰好就是智能本身,即:人脑。只要能将人类大脑蕴藏的能量全部发掘出来(以致只发掘一半),未来,就足以逃离或克服核战争、人工智能等全部毁灭性危急了。
1 \% E9 m$ ]! _: [0 q% b: O2 o  Y' J: h
" T4 Q9 Y+ K9 M3 H3 N
怎样发掘?这是天机,蹊径应该有多少:大概是佛,大概是基督,大概是周易,大概是..." |! }( q3 I& H$ T, J- p% x* z
而我已往八年多都在践行的蹊径是:时间的黄金螺旋。
4 p: c  T" |5 Q+ a! x( o  V以上全部蹊径,我想假如都是真理,牧攴斧将殊途同归。
* V; f4 Q0 z% u6 {; ?
' a" r- J0 J3 N$ d2 ~& O$ b$ \& D* F/ ]+ o" ?3 X- P
末了,假如你乐成发掘了自身大脑中的宇宙,准期拥有高等智慧,你该做些什么?未来,根据本纪人类的发展和自毁情况,分列组合,你可以有以下多少选择:
6 ^  p  t$ |+ J$ T0 Z
& m2 Z1 I2 |! u& q" L" I# T0 z届时,假如未发展到超人工智能,且别的毁灭人类的因素也没到来(如核战争等),你可以选择将机密告知众人,人类一起到达高等智慧,实现大同,别的核武器、人工智能等危急也就8是个事儿了;
! c1 L; J: x) p& ?在以上1的情况下,你也可以选择保密,本身独自离开,离开这个天下:时空穿越、进入别的更高维度平行宇宙或别的;% ~0 P4 x( a7 R5 ]1 W2 o( `4 D
假如未发展到超人工智能,但别的毁灭人类的因素已到来(如核战争等),你可以选择自救,离开这个天下,时空穿越、进入别的更高维度平行宇宙或别的;
3 C& \! ^& ^5 q1 x, r假如已发展到超人工智能,你可以如1一样,选择救济天下;
0 @- t8 x; [9 a) K假如已发展到超人工智能,你可以如2一样,选择自救,离开这个天下。
! N5 |# @4 Z  E) f! L
$ A5 \. R/ i- b8 m+ o' ?: |7 v. I& Q- e7 e& a. E9 p
这条自救的探索之路,我已经走了八年了。而如今,本纪人类已经提前打开了人工智能的“潘多拉魔盒”,那么,我更加必要加速步调,只争旦夕,继承探索!
( |! w& g) F' O# |0 K% T; w+ n) z: a2 X3 C1 N0 q
就从写完这篇文章开始!就从如今开始!
http://www.simu001.cn/x86818x1x1.html
最好的私募社区 | 第一私募论坛 | http://www.simu001.cn

精彩推荐

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|Archiver| ( 桂ICP备12001440号-3 )|网站地图

GMT+8, 2026-5-15 02:42 , Processed in 1.477599 second(s), 26 queries .

Powered by www.simu001.cn X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表