您的位置:首页 >  新闻中心 > 环球视野

“世界末日”谣言外的危机:智能机器或会反人类

2012-12-16 16:56:31 来源: 中新网--新京报 
字号  

  剑桥专家“敲警钟”

  两位剑桥大学的权威,一位是天文学家马丁·里斯,另一位则是哲学家休·普莱斯,另外再加上一名企业家,Skype创始人荣·塔利恩,三人宣布成立一个名为“存在风险研究中心”的机构。

  这个机构目前还在筹建之中。三位创始人决定将招来全球各地研究哲学、天文学、生物学、机器人研究、纳米科学和经济学等各个领域的权威专家,组成一个专门用来评估人类文明存在风险的智囊。

  这三位创始人已抛出了人类文明的“四大警钟”之说。这四大警钟是气候变化、人工智能、核战争和失控的生物技术。

  三人中的马丁·里斯曾是英国皇家科学院院长,已被封爵。2008年,这位享誉英国的科学家陷入了风波之中。当时,他的手下,英国皇家科学院的教育主任迈克尔·里斯对外表态,认为小学应该将在科学课程中批驳宗教,以让学生能够科学地了解生命起源。此话一出,便引发全社会轩然大波,小学教育者联合起来反对皇家科学院,最终迫使迈克尔辞职,而马丁本人也在诸多场合被批判声密集围攻。

  卸任院长职务之后,马丁·里斯却演变成现代人类末日的“敲钟人”。在他的著作《最后一世纪》中,他写道,人类要成功度过本世纪的概率只有50%。

  一些宗教著作中描述过“世界末日”的场景:发生天翻地覆的大地震,太阳一片漆黑,月亮呈血色,天堂的星星不断坠落大地。

  马丁·里斯在其书中列出了导致人类可能灭亡的因素首先包括了一些自然灾害,如小行星撞击造成的剧烈的火山喷发,此外也包括了人类自己造成的灾难,如人工制造的病毒、核恐怖分子、乃至失控的超级智能机器。

  人类警惕哪些风险

  存在风险研究中心成立的消息一经公布,马丁·里斯等人再度成为舆论的焦点。

  《新科学家》杂志提出质疑:我们真的需要一个中心召集专家到这么一个特立独行的领域中来吗?比如,有的威胁如核战争,其风险相对来说是明确而且可控的;对于人工智能来说,要控制它,不需要武器检查,但是可以对软件设计进行监管……为什么不把一些真实存在的外来自然风险,如小行星撞击地球等纳入其中呢?

  对于这些质疑,普莱斯教授是这么对媒体解释的:“我们现在已有机器可以像人类一样下象棋、飞行、潜水、操作金融、还可以进行面部、语言和手写识别了”。我们的担心在于,当创造了一种高级智能的机器后,有可能会发生失控,机器对人类和人类价值变得冷漠无情。

  马丁·里斯则认为,现在公众所认为的现实风险和事实上存在的威胁很多时候是两码事。“我们会很担心致癌食物、火车撞击或低辐射,但我们却无视那些‘低可能性、后果更严重’的事件,而真是那些事件才真正足以让我们担心,这些事件会让今天这样一个高度相关的世界产生全球性的后果。”

  尼克·波斯顿是牛津大学的瑞典籍哲学家。他曾被列为“全球100位最伟大的思想家”。

  尼克·波斯顿说过:“我们对待风险,绝对不是‘屡败屡战’的方式。我们没有机会从错误中汲取教训……我们应该采取预防的方式。这需要我们预测到新的危险,并有决心采取行动,将危险阻止。”(金煜)

  三角洲是各国文明和城市集中的地方,但现在,三角洲却面临着下沉,被水淹等危机……大部分的三角洲都在下沉,且速度极快。鹿特丹、曼谷、开罗、上海、香港、布宜诺斯艾利斯、新奥尔良等很多重要城市都位处下沉的三角洲,那里居住着超过5亿人,而且这些地方还在高速发展之中。 ——《新科学家》杂志

  到本世纪末,如果不再采取持续的政策行动的话,全球气温将上升4摄氏度,后果将是灾难性的。人类将面临这样的局面:沿海城市被淹没、食品短缺、干旱地区变得更干、湿润地区更湿、很多地方尤其是热带地区将遭遇史无前例额度热浪、许多地区缺水明显加剧、热带气旋风力增强、生物多样性丧失、珊瑚礁体系丧失无法逆转。任何国家对全球变暖都没有免疫力,而其带来的食品短缺、海平面上升、飓风、干旱等问题给发展中国家带来的危害尤甚。 ——世界银行11月公布的一份报告

  ■ 焦点

  1 智能机器存在反人类风险

  “我们必须严肃对待可能演变成‘潘多拉之盒’的时刻,人工智能一旦失控,后果可能是灾难性的。”剑桥哲学家休·普莱斯说出了对人工智能的担忧。在其看来,当计算机可以自己写程序时,可能就会达到这个临界点。

  有业界人士将“存在风险研究中心”开创的新研究称为“终结者研究”。在电影《终结者》中,阿诺·施瓦辛格扮演一名“善良”的机器人,与美国军方开发的邪恶计算机系统“天网”做斗争。在《黑客帝国》、《2001太空漫游》等经典影视作品中,主角也都是失控的机器。

  目前,人工智能界总是传来令人振奋的消息,但对其的担心也无时不在,失控的机器并不总是存在于科幻界。

  11月,美国一家人权机构发表了名为《逝去的人性:杀人机器人案例》的报告,引发诸多担心。报告称,全自动武器发展会给人类文明带来危险。全自动武器不具备人性,无论是致命的还是非致命的属性,都可能导致对平民的无情杀戮。

  美国国会今年公布的一份报告显示,短短七年内,美国增加了7494架无人机。该报告未提及去年美国内华达空军基地发生的无人机机器中毒事件。当时,计算机病毒在远程控制无人机的计算机中扩散,不过军方称病毒被控制,未发生事故。此外,该报告也未提及涉及远程控制方面的一些伦理问题。

  “我们的担心在于,当创造了一种高级智能的机器后,有可能会发生失控,机器对人类和人类价值变得冷漠无情。”普莱斯表示,“我很爱看科幻电影,但这些电影的成功让这些问题似乎变得反而不严重了。我们希望能够提醒大家,这类问题确实很严重。”(金煜)

  2 生物技术可能会“助纣为虐”

  针对生物技术的威胁,剑桥哲学家休·普莱斯和天文学家马丁·里斯都认为,如今,制造病毒武器或其他生物恐怖事件的方式已被大大简化。

  今年年初,哈佛医学院的科学家将一本有5.34万个单词的书籍的编码放进了一个亿万分之一克的DNA微芯片,此外,他们还将超过原书数据1000倍的拷贝信息也塞进了芯片,然后成功利用DNA测序来阅读这本书。

  这被视为DNA数据储存的一大突破。该研究在《科学》杂志上发表,研究者认为这一技术将极大推动未来生物硬盘的发展。

  去年,两组独立的科学家在实验室里生产出了H5N1流感病毒,以对其进行研究,最终使人类疫情得以控制。不过,当他们计划将在全球最权威的两份期刊《自然》和《科学》发表此项论文时,却被美国政府制止,要求不能公开研制过程的关键步骤,以防被生物恐怖主义利用。

  在随后的几个月时间内,科学界开展了一场科学研究、安全和伦理的大讨论。有研究人员认为,一旦H5N1病毒从实验室流入自然界,将会使1918年的西班牙流感变得“小巫见大巫”。而现实中,在2003年暴发SARS事件时,亚洲也出现过实验室人员被病毒感染死亡的事件。此外,目前全球发生流感时,有时候各国会共享流感病株以研制疫苗,但运输过程中却存在着很大的不安全性。

  还有科学家认为,有的病毒只能在实验室环境下变异,有的如果流入自然界则会变异很快,因此要对病毒区别对待,但一个共识是,目前生物安全的监管不够,存在较大的安全风险,同时也限制了科学家继续对病毒进行研究。(金煜)

[作者:王峥  编辑:王静喆]

相关阅读