全部商品分类

科学家呼吁关注人工智能和神经技术四大伦理问题

2017-12-09 22:16:09

《自然》杂志发表了由哥伦比亚大学、中科大、谷歌等机构的科研人员联合撰写的文章,围绕人工智能和神经技术探讨了四方面的伦理问题。该文主要内容如下:


请设想一下下述场景:一名瘫痪男子参与一项脑机接口(Brain-Computer Interface,BCI)临床试验。一台计算机与他的大脑中植入的芯片连接,并接受相关训练,解读他对某个动作进行内心演练而带来的神经活动。计算机会由此生成指挥机械手臂移动的命令。某一天,该名男子对试验团队感到失望。他在之后指挥机械手从一位研究助理手中接过茶杯时将茶杯捏碎了,还让助理受了伤。尽管他道歉说这一定是装置出现了故障,但他忍不住怀疑这是否与自己对研究团队感到失望有所关联。

这是一个假设的场景,但也说明了我们这个社会可能将要遇到的一些挑战。



目前的脑机接口技术重点关注治疗效果,例如帮助脊髓损伤人士。这项技术已经能够让使用者执行相对简单的动作任务,例如移动计算机光标或控制电动轮椅。此外,研究人员已经能够通过功能性磁共振成像扫描,在基本层面解读人们的神经活动,比如某个个体正在想的是一个人,而不是一辆车。

可能还要数年甚或数十年时间才能看到脑机接口技术和其他神经技术成为我们日常生活的一部分。但技术的发展意味着我们正在进入这样一个世界:在这个世界中,我们能够解码人们的思维过程并直接操纵其意图、情感和决定背后的大脑机制;人们可以通过思考直接与他人交流;与人类大脑直接关联的强大计算系统可以帮助人们与世界交互,从而大幅增强其智能和体能。

此类进步可能会让从脑损伤和瘫痪到癫痫和精神分裂在内的许多症状的治疗发生变革,并会让人类的生存体验往更好的方向发展。但这项技术也可能会加剧社会不平等现象,为企业、黑客、政府或其他任何人提供剥削和操控大众的新方法。而且它可能会对某些核心人类特征带来深远影响:私密精神生活、个体能动性以及对个体是被身体束缚的实体的理解。

因此,我们现在就应该考虑可能的后果。

Morningside研究小组(Morningside Group)由神经科学家、神经技术专家、临床医生、伦理学家和机器智能工程师组成。其中包括来自谷歌和Kernel(一家位于美国加利福尼亚州洛杉矶市的神经技术初创公司)的代表;来自国际大脑科学项目的代表;以及来自美国、加拿大、欧洲、以色列、中国、日本和澳大利亚的学术研究机构的代表。2017年5月,美国国家科学基金会(US National Science Foundation)在纽约哥伦比亚大学赞助召开了一场研讨会,大家在会上讨论了神经技术和机器智能需要关注的伦理问题。

我们认为,现有的伦理指导原则对于这一领域而言是不够的。现有指导原则包括:《赫尔辛基宣言》(Declaration of Helsinki),这是1964年针对涉及人类受试对象的医疗研究项目确立的伦理原则声明;《贝尔蒙特报告》(Belmont Report),这是由美国国家生物医学与行为研究人类实验保护局(US National Commission for the Protection of Human Subjects of Biomedical and Behavioural Research)于1979年起草的声明;以及《阿西洛马人工智能原则》(Asilomar Artificial Intelligence Statement),这是由商业领袖和人工智能研究人员于2017年年初签署并发布的谨慎原则。

为了着手弥补这一不足,我们就以下四大关注领域提出了建议:隐私权和知情同意权、能动性和身份认知、体能智能增强以及偏见。具有不同宗教信仰、民族和社会经济背景的国家和人民拥有不同的需求和愿景,因此,各国政府必须建立自己的审议机构来协调社会各界代表展开的公开辩论,以及确定如何将这些指导原则转化为政策,包括专门的法律法规。


智能投资


世界上最富有的一些投资者将赌注放在了神经科学和人工智能的交叉领域。世界各地有十几家公司,包括Kernel以及Elon Musk(伊隆·马斯克)于2017年成立的初创公司Neuralink,都在对既能够“读取”人类大脑活动又能够将神经信息“写入”大脑的装置进行投资。我们估计,目前营利性行业每年对神经技术的投入已达到1亿美元,并且这一数字正在快速增长。

来自其他部门的投资也很可观。从2013年开始,单就美国人脑研究计划(US BRAIN Initiative)而言,就已经有超过5亿美元的联邦资金被投入神经技术的开发。

神经技术目前取得的成就已经令人印象深刻。一位因肌萎缩性脊髓侧索硬化症(ALS;也称为葛雷克氏症或运动神经元病)而导致瘫痪的神经科学家已在使用脑机接口运转其实验室、撰写经费申请以及发送电子邮件。与此同时,美国北卡罗来纳州德罕市杜克大学的研究人员已经表明,三只植入电极的猴子可以构成一个“脑网(brain net)”来协作移动虚拟手臂。如果信号通过互联网无线传输,这些装置可跨数千公里的距离运行。

这些只能刺激及读取几十个神经元活动的粗糙装置很快就会被取代。今年早些时候,美国国防部高级研究计划局(DARPA)发起了一项名为神经工程系统设计(Neural Engineering System Design)的计划。该计划希望在四年内获得美国食品和药物管理局对一种无线人脑装置的批准,该装置能够同时使用一百万个电极监测大脑活动并能够选择性地刺激最多十万个神经元。

与此同时,谷歌、IBM、微软、Facebook、苹果和大量初创公司都在构建比以往更复杂精密的人工神经网络。在具有明确定义的输入和输出的任务中,这些人工神经网络的表现已经超越人类。

例如,美国西雅图市华盛顿大学的研究人员在2016年证明,谷歌的人脸识别系统FaceNet能够从一百万张人脸中识别出特定的人脸。另一个具有类似神经网络架构的谷歌系统在猜测街景照片拍摄于何处方面的表现已经远远超过具有丰富旅行经验的人类,这表明了这项技术的普适性。微软于2017年8月宣布,其用于识别会话性言语的神经网络在某些指标中的表现已经能够与经过训练的专业人士媲美,而这些人员能够选择反复倒带聆听对话中的字词。2017年7月,德国弗莱堡大学的研究人员借助脑电图(EEG)数据,展示了如何将神经网络用于解码与规划相关的大脑活动,从而实现对机器人的控制。

如果我们对真实的神经网络如何运作有更好的理解,那么几乎可以肯定的是,未来的神经网络甚至会比这些例子中的神经网络更加强大。目前使用的人工神经网络受到50多年前的大脑回路模型的启发,这些模型基于对麻醉动物的单个神经元活动的记录。在当今的神经科学实验室中,由于光学方法、计算、分子工程和微电子技术的进步,研究人员可以监测和操控处于清醒状态并有行为能力的动物的数千个神经元的活动。

我们已经与我们的机器紧密联系在一起。根据谷歌研究人员在2017年的计算,用户每年平均接触手机近一百万次(数据未发布)。人类大脑控制听觉系统和视觉系统来解读声音和图像,然后命令我们的四肢抓握及操控我们的设备。但神经技术和人工智能技术的融合发展会带来质的不同:人类大脑直接与机器智能连接,以及绕过大脑和身体的正常感觉运动机能。


四大关注领域


为了在大众消费者市场推广神经技术,相关装置必须是非入侵式的、风险达到最低,且部署成本应该比目前的神经外科手术费用低得多。但即便是现在,那些正在开发相关装置的公司也必须对其产品负责,并以特定标准、最佳实践和道德规范为指导。

我们重点强调了需要立即采取行动的四大关注领域。尽管我们在神经技术的背景下提出这些问题,但这些问题同样适用于人工智能技术。

(1)隐私权和知情同意权。我们已经能够根据人们的数据足迹获取大量个人信息。例如,英国剑桥麻省理工学院的研究人员在2015年发现,人们在个人设备上的键盘输入模式可以反映其动作行为,通过对这些动作行为进行精细分析,可以实现对帕金森氏病的早期诊断。一项2017年的研究表明,对动作模式的测量(例如通过人们在正常日常活动中使用智能手机获得的动作模式)可以用于诊断阿尔兹海默病导致的认知障碍的早期症状。

如果能够利用神经信息(例如与特定注意力状态相关的神经元的活动模式),用于设置广告受众、计算保费或匹配潜在合作伙伴的算法将变得更加强大。与互联网连接的神经装置打开了个人或组织(黑客、企业或政府机构)追踪甚至操纵个人心理体验的可能性。

我们认为,公民应该有能力且有权利保持其神经数据的私密性(另请参阅“能动性和身份认知”)。我们建议采取以下步骤来确保这一点。

对于所有神经数据,选择不分享应该是默认选项并应得到严格保护。人们很容易就会向商业服务(例如互联网浏览、社交媒体或娱乐)提供商放弃自己的隐私权,但对于自己到底放弃了什么却没有充分了解。默认拒绝分享选项意味着神经数据会在大多数国家/地区得到与人体器官或组织相同的对待。如果个人要从任何设备分享神经数据,则该个体应明确选择同意分享。这可能涉及安全和保护流程,包括明确规定数据使用者、数据使用目的以及数据使用时间的知情同意程序。

即使采用了这种方法,通过组合大量自愿分享者的神经数据以及来源于互联网搜索和健康监测仪等的大量非神经数据,可得出关于选择不分享人士的“足够可靠”的结论。为了限制这一问题,我们提议对神经数据的销售、商业转让以及使用进行严格监管。此类法规也会限制人们放弃自己的神经数据或将神经活动直接写入自己的大脑,从而换取物质奖励的可能性。这些法规可能与禁止销售人类器官的立法类似,例如《1984年美国国家器官移植法》(1984 US National Organ Transplant Act)。

另一项保护措施是限制对神经数据进行集中处理。我们提倡部署差分隐私(differential privacy)或“联合学习(federated learning)”等计算技术来保护用户的隐私(请参阅“保护隐私”)。使用其他专为保护个人数据而设计的技术也有所帮助。例如,基于区块链的技术允许跟踪和审计数据,而“智能合同(smart contract)”则可以对数据的使用方式进行透明控制,无需设置集权机构进行管理。最后,开放数据格式和开源代码可以让哪些内容会保持私密以及哪些内容会被传输变得更加透明。



四大关注领域


(2)能动性和身份认知。一些通过植入大脑的电极接收深层大脑刺激的人士报告,他们感觉到自己的能动性和身份认知发生了改变。在一项2016年的研究中,一名使用大脑刺激器治疗抑郁症长达七年的男子在小组座谈9中报告,他开始怀疑自己与其他人互动的方式(例如说一些他回过头去想时认为不合适的话),究竟是刺激装置导致的还是抑郁症导致的,以及这是否反映了关于自己的更深层次的东西。他表示:“它让很多事情变得模糊,坦白说,我甚至都不确定我自己是谁了。”

神经技术能够明显扰乱人们对身份和能动性的认知,并动摇关于自我本性和个人责任(法律责任和道德责任)的核心假设。

也许通过使用“自动完成”或“自动纠正”功能,机器学习和大脑接口装置能够更快地实现意图和行动之间的转换,而这可能会导致人们最终做出一些自己无法接受的事情。如果人们能够跨遥远的距离通过思想控制相关装置,或如果多个大脑能够连接在一起协同工作,那么我们对自我身份和行为的理解可能会被扰乱。

随着神经技术的发展,企业、政府和其他人开始努力赋予人们新能力,但个人身份(我们的身体和精神的完整性)和能动性(我们选择我们的行动的能力)必须作为基本人权受到保护。

我们建议在国际条约中添加保护此类权利(“神经权利[neurorights]”)的条款,例如在1948年的《世界人权宣言》(Universal Declaration of Human Rights)中添加相关条款。但这可能还不够,国际宣言和法律仅仅只是国家之间的协议,即便是《世界人权宣言》也没有法律约束力。因此,我们提倡制定国际公约来定义与神经技术和机器智能相关的禁止行为,这类似于2010年《保护所有人免遭强迫失踪国际公约》(International Convention for the Protection of All Persons from Enforced Disappearance)中所列的禁止事项。相关的联合国工作组可以审查所有签约国对公约的遵守情况,并在需要时建议实施制裁。

此类宣言还必须保护人们接受教育的权利,以便他们了解关于神经技术的可能认知和情感影响。目前,知情同意书通常只关注手术对身体带来的风险,而没有提到相关装置对情绪、性格或自我意识的可能影响。

体能智能增强。如果一个人在身体或大脑功能方面存在缺陷,则往往会遭遇偏见。采用增强型神经技术(例如允许人们从根本上增强自己的忍耐能力、感知能力或心智能力的神经技术)可能会改变社会规范,引起是否能平等享有这类技术的问题,并产生新形式的歧视。

(3)武器竞赛。最近几年,我们听到DARPA和美国情报先进研究计划署的员工讨论相关计划,为军人和分析人员提供增强意识能力(“超级智能代理”)。这些可以被用于战争环境以及更好地解密数据流。

我们所画出的任何线都不可避免地是模糊的,因为很难预测哪些技术会对人类生活带来负面影响。但我们主张在国际和国家级别制定相关指导方针,对可以实施的增强型神经技术设置限制,以及定义可以使用的背景,正如对人类基因编辑所做的那样。

隐私权和个人意识在某些文化中受到重视的程度高于在其他文化中受到重视的程度。因此,必须在文化特定的背景下做出监管决策,并同时遵守一般权利和全球指导方针。此外,彻底禁止某些技术只会让这些技术转入地下,因此,确定特定法律法规的工作必须包含制定有序论坛来实现深入公开的辩论。

此类工作因从许多达成国际认同和在国家级别将公众意见纳入科学决策的前人工作吸取经验教训。例如,在第一次世界大战后,1925年会议带来了日内瓦协议的制定和确立,这项公约禁止使用化学和生物武器。类似的,在第二次世界大战后,联合国原子能源委员会建立,用于处理与将原子能源用于和平目的以及控制核武器扩散相关的事宜。

我们特别建议对神经技术在军事目的上的使用进行严格监管。出于显而易见的原因,任何暂停都应是全球性的,并得到联合国领导的委员会的支持。尽管此类委员会和类似努力可能无法解决所有增强问题,但它们提供了可能的最佳模型来公开确认对限制的需求,以及对开发和实施某项技术广泛征求意见的需求。

(4)歧视。当科学或技术决策是基于定义狭隘的一组系统化、结构化或社会概念或规范时,得到的技术可能会让某些团队受益,并让其他团体受到伤害。一项2015年的研究发现,借助谷歌的广告算法发布面向女性用户的招聘启事时花费比面向女性用户的照片启事费用要低。类似的,ProPublica调查于2016年表明,美国执法机构使用的算法错误的预计黑人被告更有可能比具有类似犯罪记录的白人被告再次犯罪((go.nature.com/29aznyw)。此类偏见可能会植入神经设备中。的确,检查此类案例的研究人员表明以数学严谨的方式定义公平十分困难。

应对技术中的偏见的可行步骤已经在业界和学术界进行讨论。此类持续的公开讨论和编队对于形成问题偏见的定义而言是必要的,以及更广泛的规范性。

我们提倡采取应对措施来制止偏见成为机器学习的规范。我们还建议可能的用户群体(特别是已经边缘化的用户)在设计算法和设备时发表意见,作为确保偏见在技术开发的第一阶段得到解决的方式。


负责人的神经工程


其中许多建议的背后是呼吁业界和学术界的研究人员对设计能够带来此类变化的设备和系统负起责任。这样一来,他们能够制定已经为负责创新制定的框架、

除上文提到的指导原则外,英国工程与物理科学研究理事会和材料发现中心就提供了一个框架来鼓励创新者以“推动…社会需要并符合公众利益的科学和创新机遇”的方式来“预计、反应、参与和行动”。在人工智能领域中解决这一问题的各种努力中,IEEE标准协会在2016年4月制定了全球道德计划,旨在将道德方面嵌入所有人工智能和自动驾驶系统的设计流程中。

历史数据表明,对营利的探索通常会在企业世界胜过社会责任,即使是在个人层面,大部分技术人员的出发点都是让人类获益,他们可能会遇到没有准备遇到的复杂道德困境。我们认为这种思维模式可以改变,而设备生产者可以通过将道德行为准则嵌入业界和学术界来更好地做好准备。

其中第一步是让工程师、其他技术开发人员和学术研究训练人员在其加入公司或实验室的标准培训中接受道德培训。员工应被教授更深入地思考如何追求可能对社会有积极贡献的进步及部署类似战略,而不是往破坏的方面发展。

此类方法基本上可以遵循医疗行业中使用的方法。医学生被教授关于患者保密性、不伤害原则及其对利益和公正的责任,并要求宣誓来遵守最高专业标准。

神经技术的可能临床和社会好处是广泛的。为了利用这些好处,我们必须以尊重、保护和实现人类最佳利益的方式指导这些技术的发展。


你好!欢迎来到机器人产业链服务第一平台——机器人云Robotiy.com!我们秉承开放、分享、免费的理念,整合机器人研发、零部件、本体、集成、应用、培训、产业园等产业链大数据资源,汇聚全球机器人顶级品牌,聚合机器人及人工智能行业人群,打造产业链生态系统。您可以免费注册旗舰店销售产品、发布产品推文,获得精准定制化广告,技术交易、采购、租赁、培训/职聘、投融资及会展等营销推广服务。 欢迎您免费入驻、踊跃投稿!

 

机器人云Robotiy.com 

电话/微信/Q Q: 18602882272 

公众号/小程序/生活号:机器人云

邮箱:ai@robotiy.com 

微博:weibo.com/aigii 


请点击右上角分享到朋友圈和小伙伴一起分享哦!


搜索【机器人云】或扫码关注公众号

 

搜索【机器人云】或扫码关注小程序


来源:人工智能快报

上一篇:盘点全球30家协作机器人
下一篇:深度|2017年度人工智能报告:7大行业应用和100个初创企业