霍金:人工智能的崛起可能是人类文明的终结

4月27日,2017全球移动互联网大会(GMIC)在北京国家会议中心举行。著名物理学家斯蒂芬·霍金通过视频发表了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲。他表示,人工智能的崛起可能是人类文明的终结。

这已经不是霍金第一次提出“人工智能威胁论”。在今年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。

霍金:人工智能的崛起可能是人类文明的终结

霍金在会上表示,人工智能的威胁分短期和长期两种。短期威胁包括自动驾驶、智能性自主武器,以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。

他还认为,生物大脑和计算机在本质上是没有区别的。这与英国物理学家罗杰·彭罗斯的观点恰恰相反,后者认为作为一种算法确定性的系统,当前的电子计算机无法产生智能。

不过,霍金也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。他认为人工智能带来的收益是巨大的,人类或许借助这一强大的工具,可以减少工业化对自然的伤害。“但我们不确定我们是会被智能无限地帮助,还是被无限地边缘化,甚至毁灭。”他补充道。

霍金在演讲的最后说道:“这是一个美丽但充满不确定的世界,而你们是先行者。”

Add comment

biuquote
Loading

Powered by BlogYi.NET ver:2.5.0.10, original powered by BlogEngine.NET.