以什么框架来讨论人工智能的伦理问题AI学院

来源:AI大数据学习社 / 作者:陈欣 / 2018-04-01 20:40
怎么讨论人工智能涉及的伦理问题?建议使用“关系”多样化框架来看待人工智能涉及的伦理问题。不是将人工智能预设为单一的概念,而是考虑到其多样性和发展的多路径,分类看待与

人工智能


怎么讨论人工智能涉及的伦理问题?建议使用“关系”多样化框架来看待人工智能涉及的伦理问题。不是将人工智能预设为单一的概念,而是考虑到其多样性和发展的多路径,分类看待与分析。我们可以借用人类与非人类/人类与人类的关系作为类比来讨论人工智能涉及的伦理问题,从而便利的大家讨论,而不要沦为少数“精英”可以讨论的“高大上”话题。

一、涉及人工智能各次讨论

 

1、自动化机器技术是否危险?

 

维纳作为控制论之父,1960年发表《自动化的某些道德和技术的后果》一文认为“机器能够并肯定会超越它们的设计者的某些局限性,并且当机器实现时,他们可能即是高效的又是危险的。”“我们对于我们所制造的机器的认知发展应该与机器的性能表现发展相匹配起来。”

 

当时社会乐观者是忽视机器技术的危险性的,用维纳的话:即“这种态度假设机器不能拥有任何程度的创造力。它经常表现为这样一种声明:机器只能根据事先被编入的内容产生其输出。这往往被理解为是在宣称,‘人类制造的机器必然会持续地受制于人’,因此,机器的操作在任何时刻都能接收到人类的干扰和政策的变化。在这种态度的基础上,很多人都对机器技术的危险性嗤之以鼻。”

 

2、能否将人类智能用人工智能还原或表征?

 

1962年,前苏联科学院院士索波列夫(Sergei Sobolev)说:“人没有大脑实际是不能思维的,但是人能创造没有人而能思维的大脑。”在乐观主义者看来,人脑的一切活动(如推理、情感、决策等)都能够进行逻辑化和形式化,可还原为一系列的数字或代码。

 

这种思想受到质疑,如卢卡斯(J.R.Lucas)在其1961年发表的《心灵、机器和哥德尔》一文中写道,数学及逻辑的局限性早已在哥德尔(Kurt Godel)的“不完全性定理”中得以证明,因此他逻辑上皆可推导出,依靠数学与逻辑进行运算的计算机是无法完成对“不完全性定理”的证明的,只有人可以,这就是机器不可能相同于人的最好的证明之一。他同时强调他从来没说过机器不可以优于人类,他仅强调,“我们不是在讨论机器和人类谁高级,而是它们是否相同。在某些领域机器毫无置疑高级于人类;但恰有一些地方机器无法做而人可以做的。我们应从来不曾希望有一个机器的模型能够完全的表征人的心灵”。

 

20世纪70-80年代,约翰•罗杰斯•塞尔(John Rogers Searle,对,就是加州大学伯克利分校被女学生投诉性侵的著名哲学大神级人物)提出“中文屋”思想实验,继续探讨此话题。他以罗杰·尚克(Roger Schank)等人构想的“故事—理解”程序为依托,通过引入涉及语义理解的“中文屋”的哲学式“头脑实验”,批判“程序即心灵”。

 

塞尔解释,人工智能或计算机不过是基于一系列语法规则进行符号处理的转换机,它无法像生物大脑一样进行语义解释,计算机可以处理符号,但它不能理解这些符号背后的意义。因此当被问及与故事相关却没有直接提及的信息时,人类可以表现出能够根据故事情景予以推断的能力,而机器却不行。

 

塞尔的观点引发了大争论。有从人工智能可以间接实现上述手段,正面回应的。更多人苦于符号主义流派的人工智能面临瓶颈与困境,无法直接通过人工智能工程领域的实际发展,用事实来批驳,只能从逻辑严谨性上批评塞尔。

毋庸置疑,塞尔“中文屋”思想实验就科学严谨性上而言漏洞不少,但其直指当时人工智能弱于“reasoning”的观点长矛确实击中对方软肋,否则也不会引起众多讨论。就是2018年的今天,人工智能研究仍在“reasoning”的问题上苦苦思解,业界依然承认其是目前最核心的问题。

 

3、人工智能快速发展下的再思考:奇点是否临近,如何应对?

 

AI“计算能力”加速增强,1997年IBM公司的“深蓝”计算机的出现,关于人工智能风险的讨论开始兴起,其焦点由此前的“是否所有的人类活动均可以形式化”问题,转化为奇点议题(即人工智能最终会超过人类)研究,以及人们应该如何应对快速发展的人工智能。这个讨论在2012年开始的以神经网络与深度学习为代表的大发展时期达到高潮。

 

开始于2006年多伦多大学教授 Hinton等人发表论文,首次提出了“深度学习” 概念, 为解决深层结构相关的优化难题带来希望。在2012年深度学习的运用大大提升了图像识别和语音识别的准确率。神经网络模型在ImageNet竞赛中的突破,引起了工业界强大的兴趣。2017年5月,阿尔法围棋与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。

 

在人工智能学界和工业界一片大好形势下,乐观派认为奇点将加速来临,雷·库兹韦尔认为随着未来信息技术得到空前发展,人类将超越自身的生物极限——生命。谨慎派则在默认技术发展的趋势同时,提出要警惕人工智能的危害。2015年初,包括物理学巨匠斯蒂芬-霍金和spacex创始人伊隆-马斯克在内的一群科学家和企业家签发了一封公开信,公开信警告称,如果智能机器缺乏监管,人类将迎来一个黑暗的未来。随后,关于人工智能研究领域应优先考虑的AI 23条被提议,并形成文字纲领。

 

为什么要回顾这些论争?因为论争都反映了两个核心问题:第一,人工智能到底是什么,它的定义与理解直接决定了我们要发展其到什么样子?第二,人们警惕的是什么样的人工智能?什么样的人工智能引起了顶级科学家、学者和政府人员的广泛讨论。

 

我们已经探讨了各类别人工智能的区别,并对人工智能的发展予以前瞻。我们坚信只有了解对象,才能谈对象涉及的伦理问题。

 

二、应从人工智能与他者关系中讨论

 

1、引入关系式分析范式

 

正因为人工智能的发展是多路径的,不停变化的,不可完全预测的,所以试图从本体论上演绎人工智能的伦理问题,从方法论角度是不合适的。我们建议引入关系式分析范式,这是一种社会学、人类学和强调历史的伦理视角。

 

本文的关系式分析范式的启发,源自苏令银先生关于机器人伦理道德的文章,笔者认为同样适用于人工智能。它是:一种关系式的方法。在《日趋发展的道德关系》中,库科尔伯格提出了道德地位的关系式方法,认为道德地位是伴随着实体之间的关系而出现的。这种方法应用于机器人将意味着为了确定它们的道德地位,需要知道一个它与其他机器和人类的关系,我们需要知道它是如何被自然地、物质地、社会性地和文化性地被嵌入和构成的”。

 

对人工智能来说,这种道德现象学意味着我们可以承认人工智能能够在不同的情况下和情境中,面向不同的人呈现出不同的方式”。从道德上来说,重要的是实体是如何呈现的。......主体所面临的问题不是道德地位的问题,而是一个与特定的实体相关联的现实问题。道德地位问题不是一个抽象的哲学问题,而是主体如何与现实相联系并如何应对的实际问题。

 

2、关系式分析范式视角特点:

使用关系式分析范式来探讨人工智能的伦理道德问题,意味着:

 

2.1 承认人工智能主体的多样性,而非单一的先验抽象性:

 

根据各类型人工智能演进方向的分析可以看出来,不同类型的人工智能特点和性质完全不一样。将人工智能视为具有固定特征的物种,并问它是好还是恶,是一个错误。人工智能指的是一个很大的范围,可能远远大于人类意识的范围(因为人类拥有单一个的脑结构)。问好与恶时,回答应是你探讨的到底是哪一种ai设计。(Bostrom)

 

我们不能讨论道德地位问题时,只是关注泛泛人工智能及其属性,并且把它定义为一个先验的机器,这必将缩小可能的经验和解释的范围。这是一种笛卡尔式的思考人-机关系的二元方式。当涉及的道德体验问题超越机器人被看作纯粹的机器的情况时,上述先验抽样性的思维是无法理解的。它从认识论上建立了人与机器之间的鸿沟。这种鸿沟导致了考虑人类和机器之间关系的二元对立的方式,这种二元对立使得我们很难把它视为另外的其他事物。

 

2.2 承认多关系框架,而非单关系框架:

 

因为人工智能的发展是多类型的,我们又未可知其未来准确的形态,所以我们必须建立多关系框架来分析不同类型人工智能与人之间的伦理道德关系。弱人工智能作为工具和人发生的关系类型,与人机合一的强人工智能一定不一样。如果将它们纳入到一个框架中去机械的分析,必然导致分析的混乱。人-机互动关系,需要依赖于体现关系性的知识。人们不应该只考虑-关系,道德地位的归属取决于许多条件的可能性,这种可能性的条件超出了-关系的范畴,可能是多个我和多个你关系范畴(例如人类的社会集群智慧和人工智能的集智之间关系),可能是你中有我,我中有你,你即是我,我即是你的关系范畴(人机合一的人工智能)。

 

2.3 承认变化性并迭代,而非先验的固化:

 

必须承认人工智能的发展速度是超线性的,是指数增长级别的,可能其未来百年的发展已超过去数十亿年的自然进化,其随时在演变。以弱人工智能为例,针对其研究的过去一年的论文数已超过过去50年,人工智能科学家们研发的弱人工智能模式识别能力,其一年里可以从错误率30%迅速演进到3%以内

 

发展速度的非线性,决定了人工智能与人类之间的关系在不停演进变化。所以我们必须对之进行精益式的迭代研究。这是从精益创业中得到的借鉴,即强调周边环境的变化,因此不应僵化的、闭门造车的、企图一劳永逸式的获得认知框架与模式,用此来分析人工智能的伦理道德问题,而是干中学,在人工智能发展中,从人工智能与人类关系的不断演进中随时修正。为人工智能这一高速行驶的动车,我们必须匹配一样速度不同转动的道德伦理车轮。

 

2.4 承认对ai无时无刻的贴身”性关注,而非技术和伦理的割离性思考:

 

快速行驶的动车,一旦脱离轨道,危害是自行车翻倒损失的指数级倍数。很多学者认为人工智能指数级的精进,导致超越人类大脑的临界时间可能极短(届时以分钟计,即量变到质变的临界点时间),这使得人类可能还未准备好,已经无法改变人工智能了。

 

强于人类的人工智能,无论是强人工智能还是弱人工智能,都会给人类社会带来许多安全的挑战。Bostrom强调哪怕是第一代强人工智能的一个小小的失误可能都会酿成大错。聪明于人类的智能在无比较收益情况下,是否为了最大化自身利益,会选择与人类合作的方式,也存在问题(这从印第安人的历史命运中可以看到人类仿佛的宿命影子)。

 

所以,沉醉于就抽象的伦理谈人工智能与人类的伦理已不现实,技术的飞快发展要求伦理道德的思考贴身性紧逼,甚至涉及此问题在具体某些研究领域里要优先考虑。具体的贴身紧逼路径可以很多,可能大相径庭,但总比脱离现实要好。

 

2.5 借助历史性经验去讨论,而“非手无寸铁”的焦虑:

 

借助人类已有伦理的多样性经验就是承认要借助历史性经验去讨论,在原有历史遗存的框架中去思考,也就意味着可以便利的借鉴人类已有的伦理智慧,无论这种伦理智慧是来自历史的经验,还是来自以前文学影像创作的思考。“我们已经知道的实体已经处在某种关系之中,在谈论和思考道德地位问题之前,已经有一个关系存在。”(苏令银)

 

下面列出了可能关系类型,并为了方法上的方便,将之类比于我们相对熟悉的类型。这样我们就可以在某一类型关系框架内,通过类似关系的借鉴,讨论各种伦理道德问题。同时我们也会欣喜的发现,很多问题已经在历史长河中发生并被先哲们讨论多次了。

 

关系对象

关系类比

解释

弱人工智能

人与工具

弱人工智能只是作为工具,人类对其无情感映射

弱人工智能

人与工具性动物

弱人工智能只是作为工具,人类承认其具备部分情感/自主意识属性,但对其无情感映射

弱人工智能

人与情感性动物(宠物);

弱人工智能不仅作为工具,人类承认其具备部分情感/自主意识属性,并对其产生情感映射

人机合一强人工智能

人与人;

 

 

 

人与变种人;

因为其作为混合智能具备人的部分属性,所以出现平等/同一生命属类的关系

因为其作为混合智能具备非生物的部分属性,所以出现排斥/差异生命属类的关系

异人强人工智能

人与奴隶抑或人与人

 

 

 

 

 

 

 

 

 

人与外星球高等智慧体

因为其从目前弱人工智能的技术路径中演化而来,先天的工具性特征为人类所一贯认知,因此即使其强于人脑智能,人类也会事先通过各种方法限定其以人类安全福祉为宗旨,甚至不惜毁灭自己为代价

是平等还是被奴役的关系框架


例如,我们要讨论视觉识别与跟踪方面的弱人工智能的伦理道德问题,由于其只是在某些领域因为算力和算法强于人类,可能更类似于我们创造了一种强大的工具,我们是否可以尝试类比至人与刀的关系,我们就不会纠缠于刀本身的伦理问题,而更关心使用刀的主体——人的伦理道德,是后者决定了刀可以救人还是可以杀人。

 

再例如,对话机器人,其目前发展处于弱人工智能,已经开始具备“reasoning”,随着算法的突破,也许具备异人的强人工智能的某些属性了,我们如果要讨论对话机器人与人类的伦理道德问题,我们是否尝试可以将其类比为人与地球其他生物之间的关系,在人将其当作宠物的情况下,可以想想人与宠物的伦理道德关系;当人将其当作工具性动物的情况下,可以想想农民与耕牛之间的关系;我们可以根据关系的不同进行情景设定,进而借鉴类比关系来约定一些不同的伦理规则。

 

再例如出现异人的强人工智能,我们是否类比人类和高等外星生物的相处,后者远强于人类,又和我们在心智/情绪处理的“算法”上完全不同,学会脑洞大开如何面对它们,也自然可以思考如何面对异人的强人工智能。

 

这些例子仅是为了说明上述分析框架与方法,并不代表笔者的伦理道德观点,因为在人与工具/动物/宠物/变种人/外星智慧生物的各关系框架中,都有很多维度、角度的观点,并且都具备部分的“正确性”。笔者一直想强调的是,本文是一篇涉及方法的文章,而非涉及观点的文章。

 

用苏令银先生的一段文字作为本次文章的结束语,也作为后续系列文章的开场白——我们所建构的人与机器人的关系是如何形成的,很大程度上不仅取决于我们如何谈论机器人,取决于我们人类如何与机器人生活在一起,取决于我们社会中技术的发展,也取决于我们的文化及其信仰的维度,是这些因素激发了特定道德地位的归因”。我们如何通过“头脑实验”,将技术、文化、信仰纳入到人和人工智能的关系讨论中,演绎关系的各种可能,将在后续文章中陆续体现。

 
阅读延展

1
3