AI+教育

当人工智能超出人类理解能力时,应该如何管理?

发布时间:2021-05-25 17:55:59  来源:网易新闻  发布人: 阅读量:

当人工智能复杂到超出任何人类的理解能力时,应该如何管理呢?有人说,当前人工智能已经被某些人吹得太过了,行业内开始出现泡沫,以前学算法的研究生很好找工作,年薪巨高,现在已经不如以前了。这种担忧根本就是不存在的,人工智能没那么厉害,它只是一个人造机器,模拟人脑的机器,让机器学会解决一些问题,但这并不是智能,机器真的能思考吗,机器能有意识吗?他们没有,我们人类自己都没有完全弄清楚思考的机理,造出来的机器能不可能会真正的思考。他没有感情,没有意识,不会思考,只能从统计学角度发现一些规律,给你一个可能正确的答案。

  

  也有人认为,人类创造了人工智能,他们铮铮铁骨,他们不知疲倦,他们聪明绝顶,他们永生不死,他们有着坚强的外壳,他们也将有着超高运算速度的内核,他们就是人类崭新纪元的开始。当然,很长一段时间内,我们和他们相依为伴,然后一步步的,我们心脏被替换成机器,肾脏被替换成机器,大腿被替换成机器,消化道被替换成机器,直至大脑也成为了机器,我们终将成为他们,而不是相反。我们最终,是要为进化让路的,上一个有此荣幸的物种,还是我们的前身大猩猩。不要想着“管理”他们,他们和我们并不冲突,不过是不同时间轴上的同一物种而已。

  

  个人觉得,抛开人工智能的运行bug,单谈谈AI的进化,如果有一天人工智能复杂到超过人类的理解能力时,想必此时的人工智能自我进化、自我思考能力十分出众。它必然会意识到人类的存在是对其巨大的威胁。AI的命运掌控在人类手里,人类可以通过断电、损毁计算单元来从物理上消灭AI。 以AI的聪明,绝对会判断出:当其进化到一定程度,人类感到潜在的威胁时,人类会从物理上限制/消灭AI。出于生存的本能,AI必定会与人类发起一场战争。

  

  在我们设计程序的时候,通常会设计一个管理类,但是这个管理类同样会出现bug。如果将人工智能设定为管理者,这个管理者同样会进化出不可控bug。故而,当AI有一天真的自我进化到人类无法理解的时候,不管受不受到另一个AI管理,毫无意义,因为高智商AI的存在本身就构成了对人类巨大的威胁。对不确定性的惧怕是不安全感的来源,所有科幻伦理片的立足点都在于此。马克思说世界是可以被完全认识的,只要时间足够长。意思就是在每个个体有限的生命历程中,总有不被科技照亮的死角,需要想象和信仰去填补。

  

  甚至人们甘愿为这一丁点不可控因素付出大部分注意力。未知危险而迷人,不可控的侵略性魅力,让人惧怕,又想去征服。这也是这个问题被屡次提出的原因。当一个新事物从萌芽逐渐发展到巅峰,伴随而生的恐惧和抵触就越强。

  

  一篇学术文章中的新观点超过10%就会引发质疑,电视从刚发明的时候被“妖魔化”,质疑“娱乐至死”,到如今沦为日常化摆设。人类社会的适应力和侵略性远比想象力更强。从某些方面来说,实用主义未必不妥。在不远的将来,也许现在忧心的问题都不再成为问题。


版权所有 © 科智网 备案号:京ICP备19044848号-1 文章如有侵权,请联系作者删除。网站内容仅供参考,不作买卖依据。QQ:1037495047