听好,我们的时间所剩无几!我们需要告诉Siri,不要思考太多问题,只需要听话就好。当然,偶尔来上一点段子也无伤大雅,重要的是,我们必须确保Siri的立场与我们的一致
听好,我们的时间所剩无几!我们需要告诉Siri,不要思考太多问题,只需要听话就好。当然,偶尔来上一点段子也无伤大雅,重要的是,我们必须确保Siri的立场与我们的一致。
上面的这段话是不是看起来很奇怪?这是根据史蒂夫・霍金博士(Stephen Hawking)最新的言论有感而发的。本周二,在伦敦举办的2015年度时代思潮大会上,这位有负盛名的物理学家以及末日预言者为人类的最终结局发表了新的看法。
据Techworld报道,霍金表示:“计算机具备的人工智能将会在未来100年中的某个时点超越人类的智能。当这种情形发生时,我们必须确保计算机是站在人类这边的。”
显然,我们现在就需要确保这一点,之后便可以坐等计算机的智能超过我们自身的。
然而,我们很难预测,具备智能的计算机会走向何方?
霍金早前就警告说,人工智能是人类历史上出现过的最可怕的事物。
周二,霍金说道:“我们的未来是在日益崛起的科技力量与我们试图掌控它们之间的一场竞赛。”
但是,至少有一件事情我们现在就知道,那就是:我们不能相信自己。我们的本性中埋藏着各种扭曲事物,使我们倾向于创造出最终会毁灭我们自己的怪物――首先从精神上,然后是肉体。
当我们发明了核武器时,我们仍然使用了一、两件,为的只是看看效果如何。因此,当第一个真正具备自主思维能力和行为能力的机器人出现时,这个世界究竟会变成何种情形?参照人类的过往历史,答案不容乐观。
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!