霍金预言人类两大末日危机:外星殖民将毁灭人类

时间:2018-01-24 00:40:02  阅读:8199+ 来源:本站原创作者:程媛媛
著名物理学家史蒂芬·霍金教授此前曾经说过,在未来100年内,人工智能的机器人将反过来控制我们人类。而现在,在的一次讲话中,霍金教授表示如果人工智能未有征服人类,那么先进的外星文明将会这样做。

  在一次采访中,霍金表示:“如果外星人造访地球,那么其后果将非常类似当年哥伦布抵达美洲,那对于当时的美洲土著居民而言可并不是什么好事。”他说:“这样的先进外星文明可能会是‘流浪民族’,在到处寻找可以征服和殖民的星球。”

  霍金目前正在领导一项宏大的计划,利用全世界两台最强大的望远镜开展对外星生命的搜寻。利用这些望远镜,项目将对距离地球最近的超过100万颗恒星周围进行搜寻,寻找任何智慧文明发出信号的迹象。参与这一耗资将达1亿美元项目的科学家们还将对银河系的中心区域,以及距离银河系距离最近的100个星系进行低功率无线电信号的搜寻。

  而随着时间推移,人类针对地外生命的搜寻更是迎来新的热潮——美国宇航局宣布在火星上发现了液态水存在的证据,这一发现大大增加了人们认为火星上可能存在生命的预期。霍金表示:“对于我的数学头脑而言,纯粹的数学只会让我变得更加理性。现在真正的挑战则是应当弄清楚地外生命究竟可能是什么形式。”

  不过,霍金同时也表示,假如外星人没有把我们赶尽杀绝,那么最终人工智能或是全球气候变化一样会完成这件事。他说:“我认为人类生存下去的希望在于从宇宙中找到新的家园,因为地球被摧毁的风险正变得越来越高。在未来100年内的某个时间,计算机人工智能将逐渐取代人类。当这样的事真实发生时,我们必须确保计算机和我们人类拥有共同的目标。”

  在今年7月份,霍金教授和特斯拉汽车公司创始人伊隆·马斯克(Elon Musk)联合1000名机器人专家在一封公开信中警告称“自动化武器系统将成为未来的卡拉什尼科夫”(注:卡拉什尼科夫为苏俄武器设计专家,代表作为AK-47步枪)。

  这封措辞强硬的公开信呼吁“彻底禁止脱离有效人工控制的进攻性自动化武器系统”,以防止发生全球智能武器方面的军备竞赛。专家们指出,与核武器不同,人工智能武器系统并不需要耗费巨资或者获得难以获得的特殊原材料。

  这就意味着它们可以变得非常普遍存在,价格低廉,因而可以被各国军事力量所利用并进行大规模生产。而如果全球有某个军事强国在人工智能武器研制方面出现明显的领先优势,那么一场全球性的只能武器军备竞赛将不可避免。

  公开信的作者们预计,智能型武器在黑市上出现或落入恐怖分子,独裁者以及战争贩子的手中都将只会是一个时间问题。专家们警告称,人工智能技术的发展已经到达一个临界点,从而使智能武器的研制在未来几年内,而非几十年内就将成为现实。

  公开信中指出:“自动化武器特别适用于暗杀、扰乱社会秩序、镇压人群或选择性消灭某一少数民族人群这类任务。因此我们相信一场人工智能领域的军备竞赛不符合全人类的利益。”

  据悉,霍金预言是在他70大寿前,参加广播电视节目时候说出来的,霍金预言:未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此他强调人类必须移居其他星球。“万一地球毁灭,人类就必须在火星或太阳系中的其它星体生活,但这在最近100年内还不会发生,”霍金预言。

  霍金预言:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!

图文新讯