我们该怎样担忧超级人工智能?

2016年09月13日 今日头条



人工智能未来如何,它对于人类又意味着什么,都是当下的热门话题。但关于人工智能,到底有哪些指毫无根据的猜测和论断?

今日推荐文章《破解人工智能神话:我们该怎样担忧超级人工智能?》,来自头条号机器之心,经编辑。


时间表的神话

关于时间表的第一个神话:机器极大超越人类水平智能需要花多长时间?关于这个问题的一个常见错误概念是,我们认为机器超过人类智能是毋庸置疑的。

我们知道的一个流行的神话是本世纪内会有超人人工智能出现。事实上,历史充满了技术的过度炒作。那些对我们许下承诺的现在会有的飞行汽车和聚变电站在哪里呢?过去人工智能也是被反复夸大,甚至该领域的一些创始人也在夸大。

另一方面,一个流行的反神话是我们知道本世纪内不会出现超人类的人工智能。研究者们已经从各个方面估算了超人类人工智能离我们还有多远,但是由于技术怀疑论者之前很多关于技术的悲观语言都没有实现,所以我们还是无法断定本世纪内不会有超人类人工智能。

还有一些调查问了研究者们按至少 50 % 的概率算,人类水平的人工智能距离我们还多少年。所有的这些调查都有同样的结论:世界顶级专家们的意见不一致,所以我们根本不知道答案。例如,在 2015 波多黎各人工智能大会(2015 Puerto Rico AI conference)上的一次人工智能研究者意向调查中 ,平均(中位数)的答案是 2045 年,但一些研究人员猜测需要几百年或更长时间。

还有一个神话是,担心人工智能的人认为要不了几年,上述预言都能实现。但事实上,根据记录大多数担心超人类人工智能的人认为至少还需要几十年才能实现这些预言。但是这些人强调只要我们不是 100% 肯定本世纪不会出现超人类人工智能,最好还是要为意外启动安全研究。很多涉及人类水平人工智能的安全问题都很棘手,需要几十年才能解决。所以,现在就要开始研究安全技术,而不是等到一些程序员灌了几瓶红牛决定开启这些可能对人造成巨大伤害的人工智能的前一晚才开始着手研究安全措施。

争议的神话

另一个常见的错误概念是担心人工智能并拥护人工智能安全研究的人都是那些对人工智能不甚了解的卢德派。当标准人工智能教科书(人工智能:一个现代化的方法, Artificial Intelligence: A Modern Approach)作者 Stuart Russell 在波多黎各人工智能大会演讲中提到这个观点时,引来了下面观众的放声大笑。支持人工智能安全研究本身就有巨大争议。事实上,为了支持一个适度投资人工智能安全研究,不需要让人们相信人工智能会带来高风险,只要让他们知道安全研究不是可忽略的就行了。就像如果你想让一户家庭购买家庭保险,只要向他们证明房屋火灾不是不可能发生的就行了。

也许是媒体让人工智能安全争论看起来比现实更加具有争议。毕竟,恐惧是可以卖钱的,用断章取义的引用来宣告厄运迫在眉睫的文章能产生比平衡各方观点的客观性言论能产生更多的点击。结果是,从媒体文章的引用中获取观点的两个人只知道对方的观点很可能是想法上的分歧比较多。比如,一个技术怀疑论者只看了英国某小报报道的比尔盖茨的某些观点就错误的认为盖茨相信超级智能迫在眉睫。类似的还有,支持有益的人工智能运动的人可能就只知道吴恩达说过自己不担心人工智能就像不担心火星人口过剩,这样的人或许会错误地认为吴恩达毫不关心人工智能安全问题,但是事实是,吴恩达关心这个问题。问题的症结在于因为吴恩达的时间表估算的太长了,所以相较于长期问题,他很自然地倾向于优先考虑短期内人工智能面临的挑战。

关于超人类人工智能风险的神话

「Stephen Hawking 警告机器人的崛起可能是人类的灾难。」看到这样的标题,很多人工智能研究者都会翻白眼。很多人都记不清看过多少类似的文章了。通常来说,这些文章都都会描述到一个拿着武器面目可憎的机器人,并建议我们要担心机器人崛起后会杀了人类,因为它们开始有了意识变得邪恶起来。乐观点说,这类文章着实让人印象深刻,因为他们简明扼要地总结了人工智能研究者不会担心的情景,这个情景结合了三个独立的错误概念:对意识、邪恶和机器人的忧虑。

事实上,如果你被一辆无人驾驶车撞了,那么它是否有主观意识对你来说意义也不大。同样地,会影响我们人类的是超级智能人工智能会做什么,而不是它的主观感受如何

害怕机器会变成魔鬼是另一种不相干的忧虑。真正需要担心的不是它的恶意,而是能力。定义中的超级智能人工智能擅长达到任何目标,所以我们需要确保的是让它的目标始终与我们的目标一致。人类一般不讨厌蚂蚁,但是我们比它们聪明太多,所以如果我们想建一座水电站大坝时有一座蚁山在那里,那就对蚂蚁来说太糟了。有益的人工智能运动的目标是避免将人类置于蚂蚁的地位。

对意识概念的误解与机器没有目标的神话有关。机器显然能有狭义上的目标——做出目标导向的行为,比如,热跟踪导弹被最简洁地解释为以击中目标为目标。如果你感到被一台目标和你不一致的机器威胁了,而给你带来的麻烦的正好是狭义上的目标,不是机器是否有意识,也不是它感受到的目标感。如果热跟踪导弹正在追踪你,你大概不会辩解:「我不担心,因为机器没有目标!」

我同情 Rodney Brooks 和其他被耸人听闻的小报妖魔化的机器人先驱,这对他们不公平,因为一些记者看起来总是盯着机器人不放,在文章中把机器人描绘成长着红色眼睛面目狰狞的金属怪兽。事实上,有益的人工智能运动主要关心不是机器人而是智能本身:尤其是与我们目标不一致的智能。给我们带来麻烦与我们目标不一致的超人类人工智能不需要机器人身体,仅仅是一个互联网连接或许就能智胜金融市场,在发明上超越人类研究员、操纵人类领袖、甚至设计出我们无法理解的武器。即便造不出一个这样的实体机器人,一个超级智能和超级富有的人工智能也可以很容易地收买或操纵许多人,让他们在不知不觉中按照它的意思做事。

这个机器人误解还与机器不能控制人类的神话有关。智能可以实现控制:人类控制老虎不是因为我们更强壮,而是因为我们更聪明。这意味着,如果我们放弃人类作为地球上最聪明物种的地位,我们也就可能放弃了控制权。


长按二维码,勾搭头条君

你关心的,才是头条丨今日头条

收藏 已赞