Master终于引起人类对于未来的担忧
2017年01月16日 来源: 中国青年报
2017人机大战:人类智力尊严需要捍卫吗
编者的话
新年伊始,一名网上神秘棋手Master挑战人类围棋顶尖高手,Master竟以60∶0的成绩完胜。谷歌公司随后宣布,Master就是AI机器人AlphaGO的改进型,是其“深心(DeepMind)计划”的一部分。
引发全球关注的是,短短半年,阿尔法狗(AlphaGO)的改进型所展现出的学习能力,已经超出人类对进步速度的理解。2016年,人们对于阿尔法狗的能力以及韩国棋手李世石的发挥尚存疑问;如今,人工智能碾压人类智商的恐惧感再次笼罩网络……无怪乎柯洁在彻夜未眠后发微博感慨“人类千年的实战演练进化,计算机却告诉我们,人类全都是错的”……
那么,人工智能(AI)何以这么强?有学者指出:“2016年人工智能的爆发有三大原因:算法的进步、硬件的进步和大数据的进步。人工智能将是下一个主战场。谁的数据更多,更精准,谁的技术怪兽就会被喂养得更强。”进而,人们继续发问,谁来捍卫人类的尊严?这场人机大战带来的宏观效果是什么?它们还会在哪些领域挑战人类,我们的未来是否充满危机感?
人机大战将引发人们对以Master为代表的人工智能的未来作出怎样的思考?《思想者》特邀两位学者发表看法,以飨读者。
■谁能保证,随着硬件与软件的进一步发展,以及神经网络、算法技术的突破,机器有一天会不会突然产生意识?到那时,这就涉及难以处理的复杂伦理问题。
此次机器人Master以60∶0完胜顶尖围棋高手的人机大战,带来的宏观效果有三个:其一,全球性的娱乐价值;其二,所有专业棋手开始感到存在的危机;第三,引发人们对以Master为代表的人工智能的未来的好奇。
围棋行业的萎缩已不可避免
这场人机大战的直接结果,就是无情地宣告:很多曾被认为不可替代的工作,只是因为人工智能尚未涉及而已。由此推断,围棋行业的萎缩已不可避免,因为机器比人做得更漂亮,何必还要维持一个庞大的可替代机构呢?相信围棋界的同仁对此会有更深的体会。按照德国社会学家马克斯·韦伯的说法,科技的最大神奇之处就在于其巨大的祛魅功能,让以往诸多奇迹与神话在科学面前毫无余地现出原形。今天的很多热门行业与专业,未来都将被人工智能取代,相信这个绝非危言耸听的前景会让人们重新思考人工智能与我们自身的关系。
无根据的骄傲与自负
这场“人机”大战引发的第二个层次的问题,是人的尊严问题。这次Master对围棋高手们的“血洗”,让人类整体感觉很没有面子。
20年前,当深蓝战胜国际象棋世界冠军卡斯帕罗夫之后,人们就把赌注押在围棋上,认为那是机器无能为力的领域,如今,这个赌注在人工智能面前同样弱不禁风。人类曾引以为荣的诸多价值标的,在新技术面前一个个倒下,这让人类情何以堪?
冷静下来,我们不得不思考:这次Master赢了什么?而人类又输了什么?仅就后者而言,人类输掉的不是尊严,而是无根据的骄傲与自负。何谓尊严是一个非常复杂的问题,英国哲学家迈克尔·罗森曾把尊严分解为三个部分:一种社会地位;一种恒久的内在价值;一种可以被尊重的行为,是性格或能力的体现。暂且不论尊严概念有多复杂,必须明确尊严所针对的对象一定是人类。在这个基础上,我们看不出,输棋后围棋棋手的尊严有何损失?原先的九段还是九段,以前拥有的社会地位也没有随之发生变迁。改变的只是,经此一役,那些曾经虚妄的骄傲、自负与认知模式开始发生改变,而正是这些要素曾构成人类的价值标的。
历史经验无数次表明,人类的骄傲与自负大多是被夸张建构的。破除人类内心根深蒂固的虚妄的骄傲与自负,恰是本次人机大战的重要收获之一。
机器有一天会不会突然产生意识?
此番Master获胜带来的最重大意义在于:它让更多的人开始意识到人工智能对人类未来所具有的颠覆性作用。对于人工智能的朴素乐观与悲观态度,都是不足取的。
仅就笔者这几年从事心灵哲学研究的粗浅体验来看,以阿尔法狗为代表的人工智能会引发两个严肃问题:其一,从学理上看,机器是否有智能,需要新的判断标准。60多年前提出的图林测试过于简单,已无力去评判机器是否有智能。现在的研究显示,智能包含多维度内容,远不只当下所能实现的可计算化(形式化)这一种。而在计算能力方面,人类早已不是机器的对手;智能中的其他维度一旦可以部分形式化,人类自然也不是机器的对手,未来的深度学习甚至可以做到更多。如果这一天到来,人类不仅面临被全面替代的问题,还将涉及自身存在的意义问题。
其二,时至今日,学界也没有彻底搞清楚,意识到底是怎么产生的?只能笼统地说是神经系统在进化过程中产生的一种现象。谁能保证,随着硬件与软件的进一步发展,以及神经网络、算法技术的突破,机器有一天会不会突然产生意识?到那时,这就涉及难以处理的复杂伦理问题。
笔者比较相信认知理论中的计算主义,单就计算来说,人类面临三大制约:其一,速度制约,即大脑皮层的计算速度远赶不上电脑芯片的计算速度,这也就是为什么人类喜欢经验的原因,因为借助于经验可以减少计算量;其二,能量制约,其三,计算通道的制约,而在这些方面,人工智能都比人强。
笔者也曾参与过一些相关论坛的讨论,与会观点呈现出一种普遍性的对立:科学家一方往往认为:人工智能离真正的应用还很远,它目前还很“傻”,其危险远不足虑;而人文学者一方则往往比较担忧,认为孩子总会长大,随着技术的蔓延与扩散,一旦有某些关键技术的突破,人工智能所引发的链式反应就会出现无法控制的局面,到那时,我们千百年来所形成的用以维持社会秩序的规范(善恶、正义与价值等)都将面临崩溃的局面,那是人类无法承受的代价。对于寻常大众而言,在好奇心引领下,则片面寄希望于一旦人工智能取得新进展,或许会给我们的生活带来改善并提升社会福祉。
制定最低限度的规则
笔者以为,这次变革与以往任何一次技术变革的性质是完全不同的,它涉及将出现的新的思考物体,而思考曾是人类所独有的能力。如何与之相处,我们似乎并没有准备好。
遗憾的是,人类在道德判断上容易出现一种对未来风险折现缩小化的现象,即如果眼前的潜在利益大于未来不确定性风险的代价,人们更倾向于对遥远的风险进行打折,毕竟危险尚远,而且还不一定出现——对当下收益放大,而对未来风险则进行打折,从而造成决策失误。潘多拉的盒子一旦打开,就再也关不上了。没有任何国家或机构愿意放弃这个崭新的机会领域,鉴于人工智能所具有的高度不确定性前景,在竞争的循环刚刚开始之时,需要制定最低限度的规则。当下,唯一可做的就是多方代表坐下来协商,给它的发展套上缰绳。否则,我们追求来的将不再是期盼中的救星,而很可能是无情的掘墓人。