最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。
报道说,霍金慷慨地分享他对世界的观察,并提出关于世界所面临的问题的警告。他认为,世界的毁灭已经逼近,人类创造了可以毁灭地球的科技,却没有建立有效的机制去防止毁灭的发生。
这位全球知名的物理学家认为,人类的科技进步太过迅速,而这个巨大的步伐却可能经由生化或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。
- 随机文章
- 热门文章
- 热评文章