现在的位置:首页  >  国内资讯   

脑机接口四大伦理问题:神经科学和AI将如何重塑人机关系|AI政策观察
2017年11月11日

11月上旬,人们相继被腾讯的WE大会和全球合作伙伴大会刷屏。科技如何改变着人类,始终是话题的中心之一。借助神经科学表达自己的霍金似乎依然坚定地认为AI可能是人类文明中最糟糕的事件,在今年的WE大会上开始为了人类种族的持久延续而呼吁太空移民。半机械人(cyborg)Hugh Herr在今年的腾讯全球合作伙伴大会上的轻松踱步,让人们看到神经科学和AI赋能人的心理和身体的巨大潜力。

诚然,在这波AI发展浪潮中,以脑机接口为代表的神经科学、AI以及与人类的结合才是真正激动人心的部分,无论是为了治疗先天的或者后天的心理、身体疾病,还是为了增强人类身心能力,抑或是为了通过对智能机器的控制来实现人机共存。Facebook、Google、马斯克等企业和企业家都将脑机接口视为最重要的发展方向之一,足见脑机接口在未来神经科学和AI研究部署中的重要地位。

但另一方面,直接作用在人身体上的神经科学和AI可能带来比AI在其他领域的应用更深远的伦理影响。现实的案例已经表明,智能机器和脑机接口设备的运作可能使一个人开始怀疑自己的身份,怀疑自己的行为是自己的意识控制还是其他什么设备控制,产生身份认同危机。

通过操纵脑机接口设备来干预人的神经活动,进而影响人的感知和行为,并非天方夜谭。在军事领域,通过神经科学和AI来大幅度提供士兵和军事分析师的身心能力和数据分析能力,也正成为军事研究部署的议题。电影《阿凡达》中受伤的退役军人杰克靠意念远程控制其替身在潘多拉星球作战的场景,也并非空中楼阁。

鉴于脑机接口、神经科学和AI在人类身体上的应用已经很多(比如半机械人、人类身体修复和增强等),未来可能会有更加变革性的应用,提前探讨、研究其中的伦理和法律问题是必要的。

近日,《自然》杂志撰文指出了神经科学和AI的四个首要的伦理事项,并提出了一些具体的建议。这四个首要的伦理事项包括,隐私和知情同意,对个人神经信息和活动的保护甚至可能上升为一项神经权利;个人身份和能动性,如何在技术赋能人类身心的同时确保人类自由和自主性;增强人类,技术增强、赋能人类的边界问题需要更多探讨;以及偏见,其他AI领域已经出现很多偏见,类似的偏见可能蔓延到脑机接口和神经科学领域,对人类身心造成影响。

  

基于神经科学和AI的脑机接口成为投资风口

一些世界上最富有的投资者正把赌注押在神经科学和人工智能之间的相互作用。全球十几家公司,包括Kernel和Elon Musk的旗下的创业公司Neuralink,都在投资、研发能够“读取”人脑活动和将“神经信息”写入大脑的设备。据估计,目前营利性企业神经科技的支出已经达到每年1亿美元,而且还在快速增长。来自于其他部门的投资也相当可观。自2013年以来,已经有超过5亿美元的联邦资金流向了美国BRAIN计划下的神经科技发展领域。

这个技术目前的能力已经很强大了。一位因患有肌萎缩性脊髓侧索硬化症(ALS)而瘫痪的神经科学家,通过使用BCI来运行他的实验室,撰写资助申请书并发送电子邮件。与此同时,北卡罗来纳州达勒姆杜克大学的研究已经表明,三只带有电极植入物的猴子可以通过形成一个“脑网”来协同移动一个机械手臂。如果信号通过互联网无线传输,这些设备可以在数千公里的范围内工作。

很快,这种可以刺激和读取最多几十个神经元活动的粗糙装置就会被超越。今年早些时候,美国国防部高级研究计划局(DARPA)发起了一个名为神经工程系统设计的项目。它的目标是在4年内为无线人脑设备争取获得美国食品和药物管理局的批准,该设备可以同时使用100万个电极来监测大脑活动,并可以选择性地刺激高达10万个神经元。

与此同时,谷歌、IBM、微软、Facebook、苹果以及众多初创企业正在构建越来越复杂的人工神经网络,这些人工神经网络在具有明确定义的输入和输出的任务上已经比人类表现得更好。

例如,去年,西雅图华盛顿大学的研究人员证明,谷歌的FaceNet系统可以从一百万人中识别一张脸。另一个具有类似的神经网络架构的Google系统在猜测判断某张街景图是在世界的哪里被拍到的时候的表现远远优于经验丰富的旅行者,这些都说明了这种技术的普遍性。今年8月,微软宣布,在某些指标上,其识别会话语音的神经网络的能力已经可以达到训练有素的专业人员(这些人可以选择反复倒带和倾听上下文中使用的词语)的能力水平。德国弗赖堡大学的研究人员利用脑电图(EEG)数据在7月份展示了如何利用神经网络来解码与规划相关的大脑活动,从而控制机器人。

未来的神经网络将基于对真实的神经网络的工作机制的更深入的理解,并将比上述例子更加强大。目前使用的人工神经网络是受超过50岁的脑回路模型所启发,这些模型是基于记录麻醉动物中单个神经元的活动。在今天的神经科学实验室中,由于光学方法、计算、分子工程和微电子学的发展,研究人员可以监视和操纵成千上万的清醒的动物神经元的活动。

我们已经与我们的机器密切相连。谷歌的研究人员今年的计算表明普通用户平均每年接触手机近一百万次(未发表的数据)。人脑控制着听觉和视觉系统来解读声音和图像,并命令四肢握住和操纵工具。然而,神经科学和人工智能的发展趋同将会带来一些本质上不同的结果,即人脑与机器智能的直接联系,以及对大脑和身体的正常感官功能的绕过。

 

脑机接口可能带来伦理挑战

思考下面这种情况:一个瘫痪的人正在参与脑机接口(brain-computer interface,简称BC)的临床试验。与他大脑中的芯片相连接的计算机被训练来解释对一个行为的心理演练而产生的神经活动。计算机会生成移动机械臂的命令。有一天,这个男人对实验团队感到沮丧和失望。接着,他的机械手就把从一名研究助手的手里接过来的水杯压碎了,并伤害到了该研究助手。设备故障一定会成为道歉的说辞,但是他想知道他对该团队的失望是否也起到了作用。

这种情况是假设的,但却表明了社会可能面临的一些挑战。

目前的BCI技术主要集中在治疗结果上,例如帮助脊髓损伤的人。它已经使用户能够执行相对简单的电动任务,例如移动计算机光标或控制电动轮椅。此外,研究人员基本上已经可以从功能性磁共振成像扫描中解释一个人的神经活动,比如他是在想一个人,而非一辆车。

距离BCI和其他神经技术成为我们日常生活的一部分,可能还需要几年甚至几十年的时间。但是技术的发展意味着我们正走向一个新的世界:能够解码人们的心理活动并直接控制伏于意向、情感和决策之下的大脑机制。在那种情况下,个体可以仅仅通过思想与他人交流,强大的计算机系统将直接与人的大脑连接以帮助其与世界交流,从而大大提高人类的身心能力。

这种进步可能会对很多疾病治疗的条件产生变革性的影响,从脑损伤和瘫痪到癫痫和精神分裂症,并优化人类的治疗体验。但是这项技术也可能加剧社会不平等,为企业、黑客、政府或其他任何人提供新的利用和操纵人的方式。它可以深刻地改变一些人的核心特征:私人的精神生活,个人能动性,以及将个体理解为被身体束缚的实体。

现在就对可能产生的后果加以考虑是至关重要的。

2017年5月,由神经科学家、临床医师、伦理学家和机器智能工程师等组成的Morningside Group在纽约哥伦比亚大学美国国家科学基金会主办的研讨会上,围绕着神经科技和机器智能的伦理展开了讨论。与会者认为,现有的道德准则对于这个领域是不够的。其中包括1964年的赫尔辛基宣言,这是首份涉及人体对象医学研究的道德原则的声明,1979年由美国国家保护生物医药和行为研究受试者委员会制定的“贝尔蒙特报告”(Belmont Report),以及今年年初由企业领导人和AI研究人员签署发表的23条Asilomar人工智能发展原则。

为了解决这个问题,Morningside Group提出了四个方面的建议:隐私和知情同意;个人身份和自动性;人类增强;以及偏见。不同国家以及不同宗教、种族和社会经济背景的人将有不同的需求和前景。因此,各国政府必须建立自己的审议机构,对涉及社会各界代表的公开辩论进行调解,并确定如何将这些指导方针转化为政策,包括具体的法律法规。

 

《自然》杂志指出神经科学和AI的四个首要的伦理事项及建议

神经网络如果想在一般消费者市场上获得成功,其设备应当是非侵入性的,风险最小的,并且相较于当前的神经外科手术需要更少的部署费用。尽管如此,即使是现在,开发设备的公司也必须对其产品负责,并遵循一定的标准、最佳实践和道德准则。

Morningside Group对应该立即采取行动的四个需要被关注的领域进行强调。虽然在神经科技领域提出这些问题,但这也适用于人工智能。

1.隐私和知情同意(privacy and consent)

现有技术已经可以从人们的数据踪迹中获得大量个人信息。例如,剑桥麻省理工学院的研究人员在2015年发现,通过对个人设备上键盘打字模式的详细分析,可以对人类的运动行为进行精细分析,从而使帕金森病的早期诊断成为可能。2017年的一项研究表明,对移动模式的测量,例如从正常日常活动中携带智能手机的人身上获得的测量,可以用来诊断阿尔茨海默病导致的认知功能障碍的早期迹象。

用于定位广告,计算保险费或匹配潜在合作伙伴的算法如果利用神经信息(例如,来自与某些关注状态相关的神经元的活动模式),将会更加强大。连接到互联网的神经装置打开了个人或组织(黑客、公司或政府机构)跟踪甚至操纵个人心理体验的可能性。

公民应该有能力,也有权利保留其隐私数据(另见“能动性和身份”)。对此,提出以下建议。

对于所有的神经数据,选择退出共享的能力应该是默认的选择,并受到严格的保护。人们在没有充分理解他们在放弃什么的情况下,就轻易地将他们的隐私权利交给了诸如互联网浏览服务、社交媒体或娱乐等商业服务提供商。默认选择退出意味着神经数据的处理方式与大多数国家的对器官或组织的处理方式相同。个人需要明确选择分享来自任何设备的神经数据。这将涉及一个安全和可靠的过程,这样的同意流程应包括明确说明谁将使用数据的、使用的目的和期限。

即使采用这种方法,来自许多自愿共享者的神经数据,加上来自互联网搜索、健身监测等等的大量非神经数据,也可以用来得出关于选择不共享的个人的“足够好的”结论。为了限制这个问题,建议严格管理神经数据的销售、商业转让和使用。这样的规定也会限制人们放弃神经数据或为了获得经济奖励而将神经活动直接写入大脑的可能性,这就类似于例如1984年美国国家器官移植法案之类的禁止出售人体器官的立法。

另一个保障是限制神经数据的集中处理。可以通过部署计算技术,如差别隐私或“联合学习”,来保护用户隐私(请参阅“保护隐私”)。使用其他专门设计来保护人们数据的技术也会有所帮助。例如,基于区块链的技术允许对数据进行跟踪和审计,“智能合同”可以透明地控制数据的使用方式,而不需要集中授权。最后,开放数据格式和开源代码将使私有信息和传输信息的透明度更高。

当技术公司使用机器学习来改进他们的软件时,他们通常会在服务器上收集用户信息,以分析特定服务的使用情况,然后在汇总的数据上训练开发新的算法。Google的研究人员正在尝试一种称为联合学习的人工智能训练方法。在这种方法下,训练过程本地化地发生在每个用户的设备上,而不用集中数据:从数据中汇总的知识(例如,“每周”可以用作形容词和副词的知识)被发送回Google服务器,但实际的电子邮件、文本等则保留在用户自己的电话上。其他小组正在探索类似的想法。因此,配有改进版设计的信息系统可以用来增强用户对其个人数据的所有权和隐私性,同时满足对这些数据执行有价值的计算的需求。

2.能动性(agency)和身份(identify)

有些人通过植入脑部的电极来接受深脑刺激,他们感受到了能动性和身份发生了改变的感觉。在2016年的一项研究中,一个使用大脑刺激器治疗长达7年的抑郁症的男人在一个焦点小组中报告说,他开始怀疑他与他人互动的方式,例如,在印象中,他觉得不恰当的东西是出于设备的影响,他的抑郁或是否反映了他自己的更深层的东西。他说:“这使我不确定的一些点变得模糊......坦率地说,我是谁。”神经科技显然会打乱人们的身份感和能动性,并且动摇了关于自我和个人责任(法律或道德)之本质的核心假设。如果机器学习和大脑接口设备能够在意图和行动之间实现更快的转换,那么人们最终不再会以他们自己所声称的方式行事,而可能通过使用“自动完成”或“自动纠正”功能。如果人们能够在更远的距离范围内通过意识来控制设备,或者如果有几个大脑被连接起来协同工作,那么我们对于我们是谁以及我们在哪里行事的理解就会被打乱。

随着神经技术的发展,企业、政府和其他人开始努力赋予人们新的能力,个人本体(我们的身心健全)和个人能动性(我们选择自身行动的能力)必须作为基本人权加以保护。

建议在1948年“世界人权宣言”等国际条约中增加保护这些权利的条款(“神经权利(neurorights)”)。然而,这可能还不够,因为国际宣言和法律只是国家之间的协议,甚至“世界性宣言”是没有法律约束力的。因此,主张制定一项国际公约,以界定与神经技术和机器智力有关的被禁止的行动,类似于2010年“保护所有人不遭受强迫失踪国际公约”所列的禁止行为。一个相关联合国工作组可以审查签字国的遵守情况,并在需要时提出制裁建议。

这些声明还必须保护人们对神经科技可能产生的认知和情感影响接受相关教育的权利。目前,同意书通常只关注手术的身体风险,而不关注设备对情绪、性格或自我意识的可能产生的影响。

3.人类增强(human augmentation)

如果人们的身体或大脑的功能与大多数人不同,他们经常会遭受偏见。采取加强神经技术的压力,如允许从根本上扩大人的耐力或感官或智力能力,可能会改变社会规则,引起公平渠道问题,并产生新的歧视形式。

此外,我们很容易设想到一场增强性的军备竞赛。近几年来,美国国防部高级研究计划(DARPA)的工作人员和美国情报高级研究项目活动(US Intelligence Advanced Research Projects Activity)讨论了为士兵和分析师提供更高智力的计划(“超级智能体(super-intelligent agents)”)。这些将用于战斗设置,并更好地解码数据流。

由于很难预测哪种技术会对人类生活造成负面影响,所以任何画线都不可避免地会模糊不清。但是,烈建议国际和国家两级均制定准则,对可以实施的增强神经技术设定限度,并确定可以使用的背景,类似于人类对基因编辑所采取的措施。

隐私和个性在一些文化中比其他文化更受重视。因此,监管决策必须在具体文化背景下进行,同时尊重普遍权利和全球指导方针。而且,彻底禁止某些技术可能会把它们推到地下,所以制定具体的法律法规的诸多努力中,必须包括有组织的论坛,以便进行深入而公开的讨论。

这种努力应该借鉴国际上建立国际共识和将公众舆论吸收纳入科学决策的先例。例如,第一次世界大战之后,1925年的一次会议导致了制定和批准禁止使用化学和生物武器的“日内瓦议定书”。同样,第二次世界大战之后,联合国原子能委员会的成立是为了和平利用原子能,并控制核武器的扩散。

特别是,建议对神经科技用于军事目的进行严格管制。显而易见,任何禁令都应该是全球性的,并且由联合国领导的委员会发起。虽然这样的委员会和类似的努力可能不能解决所有的增强问题,但是它们是公开承认克制的必要性的最佳模式,并且是为技术的开发和实施提供了广泛的投入的最佳模式。

4.偏见(bias)

当科学或技术决策建立在一系列系统性/结构性或社会性的概念和规范的基础之上时,由此产生的技术可以使某些群体享有特权,并损害其他群体利益。2015年的一项研究发现,Google的广告算法向女性用户展示的工作贴子比向男性展示的要少。同样,ProPublica调查显示,去年美国执法机构使用的算法在两份相似的犯罪记录的基础上,错误地预测黑人被告比白人被告更有可能重新犯罪。这样的偏见可能会嵌入到神经装置中。事实上,研究这类案件的研究人员已经表示,以数学方式严谨地界定公平性是非常困难的。

工业界和学术界已经就应对技术内部偏见的实践展开了讨论。对为了给有问题的偏见做出更普适、更标准的定义而言,这种正在进行的公众讨论和辩论是有必要的。

防止产生偏见的措施应当成为机器学习的规范准则,建议可能的用户群体(尤其是那些已经被边缘化的用户群体)对算法和设备的设计提供投入,以便确保从技术开发的第一阶段开始,偏见问题就被解决了。

 

负责任的神经工程和AI工程,伦理教育应当成为神经科学和AI研发人员的必修课

许多建议的背后,是呼吁工业界和学术界的研究人员承担设计出能够带来这种变化的设备和系统的责任。在这样做的时候,他们可以借鉴为负责任的创新而已经开发了的框架。

除了上面提到的指导方针外,英国工程和自然科学研究理事会还提供了一个框架,鼓励创新者“以预期,反思,参与和行动”的方式“促进......科学和创新的机会(这些创新在社会上是可取的,是为了公众利益而进行的)”。为解决AI领域中的这一问题,IEEE标准协会于2016年4月制定了全球伦理倡议,旨在将道德规范融入所有AI和自动化系统的流程设计中。

历史表明,在企业界,对利润的追逐往往会压过对社会责任的承担。即使大多数技术人员在个人层面上开始造福人类,他们也可能会面对复杂的没有预先准备好的伦理困境。通过将行为道德准则嵌入工业界和学术界,思维方式可以改变,设备制造商的装备也会更好。

实现这一目标的第一步是将伦理教育作为工程师、其他技术开发人员和学术研究受训人员加入公司或实验室的标准培训的一部分。可以教导员工更深入地思考如何追求进步和部署可能对社会有建设性贡献,而不是破坏社会的战略。

这种方法本质上学习医学中使用的方法。医学院的学生要接受关于病人的保密性、无伤害性以及善意和公正的义务等的教育,并且要求秉持希波克拉底誓言以坚持这个专业的最高的职业标准。

神经技术的临床和社会效益是巨大的。为此,我们必须以尊重,保护和以使人类最大受益的方式来引导其发展。

 

 

来源:腾讯研究院

声明:本站系非盈利性学术网站,所有文章均为学术研究用途,如有任何权利问题,请直接与我们联系。

 

            责任编辑:  

 

鄂ICP备05008429号
Copyright? 2004-2010 iprcn.com All rights reserved. 中国知识产权研究网 版权所有
联系电话:027-88386157