本周三,在一个简单的问答会上,盖茨呼应霍金、马斯克以及其他一些知名人士在去年提出的,如果人类无节制的发展超级人工智能领域,那么在不久的将来电影终结者(Terminator)以及黑客帝国(The Matrix)中的场景将在现实中展现。
盖茨在会上表示,“一直以来,我都十分关注人工智能领域的发展。首先,我们必须承认,机器能够为人类做很多工作,但是它并不是完全智能的,只有当我们合理的运用它的功能,它才能发挥很大的作用。在过去的几十年内,我目睹了人工智能领域的发展,如今我十分赞同伊隆·马斯克一起其他一些同行的认识,人工智能已经严重的威胁了人类的发展。遗憾的是,任然有很多人没有认识到这一问题的严重性。”
本月早些时候,伊隆·马斯克捐出上千万美金,用于人工智能的合理性发展和规划。盖茨和马斯克均认为,人工智能不仅应该平稳的发展,更应该朝着可控制方向发展。在未来,这一领域不仅将影响微软,同样会影响马斯克的SpanceX和特斯拉的发展。
除了对人工智能领域的热爱,马斯克和盖茨更多关注的是人工智能对当今社会的危害。当一个新的科技因其很好的功能而被广泛应用时,我们需要及时的为它套上一个拉锁,以便将来能够很好的控制。
为了让人真正的了解超级智能的危害,我强烈建议大家阅读尼克·博斯特伦(Nick Bostrom)的新书——《超级智能(Super Intelligence)》,它勾画出了整个人工智能的构架,当然包括了其带来的社会危害。
另: 马斯克的“垃圾邮件灭世论”
马斯克针对人工智能的威胁性提出了这样一个假设:也许机器人会“觉得”删除垃圾邮件的最好办法是把人类一起干掉。许多人斥责这个假设纯属无稽之谈,堪称神逻辑。但事实上,这个观点并非马斯克原创。
之前就曾有科学家提出过相似的但更加严密的“铁钉灭世”的假设:一个人类给人工智能下达了尽可能多的生产铁钉的命令。于是人工智能开始疯狂地开采铁矿煤矿冶炼钢铁,制造铁钉。当人类认为铁钉已经足够了,于是命令人工智能停止制造。但人工智能却认为他是在妨碍铁钉的制造,本着“尽可能”的原则杀死了这个人类。终于有一天,地球上铁矿、煤矿都被开采完了。(假设人类尚未因为煤矿、铁矿的开采而灭绝)人工智能忽然想到,人体内部也含有铁……最终人类灭绝。