霍金:人工智能的崛起可能是人类文明的终结

推荐时间:2024-04-14 02:49:00 天下事

著名物理学家斯蒂芬·霍金在 2017全球移动互联网大会(GMIC)上说:

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

中科院院士张钹在“人工智能的技术、伦理与法律的关键科学问题”的香山科学会议上认为:

人工智能第一次震撼,是IBM的“深蓝”程序打赢国际象棋冠军,这是用计算机模拟人类下象棋的理性思考过程。更值得注意的是AlphaGo Zero从零开始,通过72小时自我学习,超越人类3000年的围棋经验,以100比0击败了上一版本的AlphaGo。这让人欢欣鼓舞,也令人担忧。基于深度学习的模式识别系统尽管可以准确地区分不同事物,但本质上不认识它们。与人类不一样,它不会举一反三,更不会“知其所以然”。使用这样的人工智能系统需要十分小心。世界上没有免费的午餐,机器通过“黑箱”学习(深度学习)方法取得的智能,由于与人类认知行为存在根本差异,因此也将带来潜在的风险。智能机器不是代替人,而是要协助人做好工作。人和机器各有优势,要互相了解才能实现人机协作,但人还是人机关系的主导者。依照这种思想,才可能将人工智能引向人机合作的发展道路。

美国加州大学伯克利分校计算机科学教授Stuart Russel:

人工智能(AI)和机器人领域的专家面临一个重要的伦理决策:必须要决定他们是支持还是反对致命自主武器系统(LAWS)。致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。在几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些自动的飞行器和坦克不需要人类干预,自己能决定谁能活下来而谁又会死去。但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。在我看来,最应当关注的是这个技术发展轨迹的可能终点。人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什么都不做就等于是表示支持继续发展和使用。

美国卡内基·梅隆大学计算机学教授Manuela Veloso:

机器人是人类的补充物,而非替代品。但机器人需要知道何时寻求帮助以及如何表达其内部工作原理。人类与机器人能安全、有效共存,还须克服一些障碍。我们正在研究人和机器人如何更简单地通过语言和动作进行沟通。我们还在探索如何改善机器人外观,提高其与外界的互动,尤其是指示灯如何向人类揭示机器人的内在状态。尽管我们还有很长的路要走,但我相信,如果人类和机器人能彼此帮助、相互补充,未来将是乐观的。

热门视频