最近,霍金对从地外生命到人工智能(AI)等一些热门话题表达了自己的观点。对于后者,他表示出非常担忧。他并不反对开发人工智能技术,事实上,他曾经说过人工智能可能是我们文明历史上最重大的事件。但是像今天世界上其他许多科学家和思想家一样,霍金担心人工智能的崛起可能带来各种负面的副作用。
报道说,霍金慷慨地分享他对世界的观察,并提出关于世界所面临的问题的警告。他认为,世界的毁灭已经逼近,人类创造了可以毁灭地球的科技,却没有建立有效的机制去防止毁灭的发生。
这位全球知名的物理学家认为,人类的科技进步太过迅速,而这个巨大的步伐却可能经由生化或核子战争的方式摧毁人类。人类唯一的办法,就是运用其逻辑与理性去控制这个可能即将到来的毁灭。
- 随机文章
- 热门文章
- 热评文章
- 物质本能汇合被形容为万有引力?万有引力之谜有望被破解?
- 航天史奇迹:SpaceX猎鹰9号回收火箭确定可再用
- 中日合作发现113号元素,无奈定名“日本”
- 航天飞机成为历史?美国不玩印度玩
- 2000岁古树将被克隆:活久见,见自己?
- 技术落后:英国关闭最后一座由本国企业运营的核电站
- 好奇号火星玩自拍:纳米比沙丘尘埃布满火星车
- 科学家发现唤醒大脑机制:大脑中的觉醒开关