吴汉东:人工智能时代必须关注的社会风险及四大问题
2017/12/30 中国好学者

    

     学者简介

    

     吴汉东,1951年1月出生,汉族,江西东乡人,教授、博士生导师,原中南财经政法大学校长、教育部法学教育指导委员会副主任委员,中国法学会知识产权研究会名誉会长,中国法学会民法学研究会副会长;现为中南财经政法大学知识产权研究中心主任,国家知识产权战略专家组成员。

     人工智能时代必须关注的社会风险及四大问题

     文 | 吴汉东

     摘要

     人工智能是人类社会最伟大的发明,同时也可能存在潜在的风险。霍金表示,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。作为法律工作者,我们不仅要为新技术感到欢欣鼓舞,拥抱一个新时代,更应该在热点背后进行冷思考。

     人工智能技术与未来产业形态

     20世纪80年代至今的知识革命,其核心是基因技术、网络技术和人工智能技术。本世纪,网络技术深入发展,不仅使信息以不同于以往的方式,更加方便、迅速地传播,而且催生了很多新的商业形态。我们所熟悉的网络文学、网络视频、网络音乐、网络游戏以及社交平台,极大地改变了我们的生产、生活和社会交往方式。

     2016年被称为人工智能技术爆发的元年,这一年有两个大事件:一是距离麦卡锡、明斯基、香农等人提出“人工智能”概念正好过去60年,二是Alpha Go战胜人类围棋顶尖高手。人工智能横跨四大核心技术——机器学习、自然语言处理、图象识别和人机交互,涵盖13个细分领域,用人类的智慧给机器装上聪明的大脑,拥有灵敏的视觉、听觉和触觉,可以像人一样的记忆、认知、识别和选择,人机之间的交往胜于人与人之间的交往,充满着有效性和精细化。

     从智能机器人、智慧家居到无人驾驶、无人工厂,人工智能技术被广泛应用到社会生活和生产的各个领域,改变甚至颠覆了我们已有的认知,对未来的农业、制造业、律师业、新闻业、交通业、医疗业及体育业等产业形态带来极大的影响。

     人工智能是人类社会最伟大的发明,同时也可能存在潜在的风险。霍金表示,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。作为法律工作者,我们不仅要为新技术感到欢欣鼓舞,拥抱一个新时代,更应该在热点背后进行冷思考。

     人工智能时代的社会风险

     在人工智能时代,法律如何保护人的生命与健康、尊严与隐私、自由与安全?这是值得重视的问题。高技术时代也是一个高风险时代,未来社会的潜在风险有三个特征:

     一是风险的共生性。人工智能时代的风险是一种内在的风险,与海啸、地震、火山爆发、洪水等自然灾害不同,这种风险是存在于人类社会之中的。它可以是人类正在研发的技术所产生的风险,也可能是关于这个技术的制度所带来的风险,这两种风险共生于人类社会。在我们的身边已经出现了工业机器人、扫地机器人、聊天机器人、伴侣机器人等等;科技专家还向我们展示了“杀手机器人”,这种机器人安装了微形广角摄像镜头,配备有高灵敏度的传感器和高容量的炸药,可以准确地瞄准目标,成功地实施杀害攻击。对此,不仅不能授予专利,还要严格禁止。

     二是风险的时代性。人工智能时代的风险不仅是现实存在的风险,也是未来潜在的风险,它贯穿于知识革命的整个历史阶段。以色列历史学家尤瓦尔,《人类简史》和《未来简史》的作者,描述了人工智能三个不同的阶段——弱人工智能、强人工智能和超人工智能。超人工智能阶段将在本世纪的40-60年代出现,整个社会裂变为两大阶层,大部分人归属于“无用阶层”,对社会没有任何贡献可言,依赖智能机器人而活着。只有极少一部分人是社会的精英阶层,有着超强的计算能力,通过基因技术和人工智能技术的结合,准确测试人体基因图谱,延续生命,保持永生。当然,这也许是一个科幻预言。但是,我们不得不警惕这种裂变对人类社会的正常发展所带来的潜在危害。

     三是风险的全球性。知识革命与以往的工业革命是不同的,工业革命起始于英国,再逐渐影响到北美、东亚,这个过程是缓慢、持续的。而在今天的互联网时代,风险是全球性的,没有地理边界,也没有社会文化的界限。因此,全球应该共同行动,既要发展人工智能技术,也要警惕它潜在的危害。

     人工智能时代的四大问题

     ■ 第一个是法律问题,包括主体责任问题、隐私保护问题、责任承担问题等。

     首先,主体责任问题。《民法总则》有两项基本制度:主体制度——人;客体制度——物。在已有的法律认知中,主体和客体有不可逾越的界限。现在需要回答的问题是,机器人是机器还是人?机器人不是自然人本身,但由自然人创造和设计,它能不能成为民事主体?现实已经作出了回答。2016年欧盟议会法律事务委员会(JURI)向欧盟委员会提出立法建议,主张赋予高水平的智能机器人电子人的主体资格,进行身份登记,设立财产帐号,缴费,纳税,领取养老金,与自然人具有同等的主体地位。今年,沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚以公民资格。它有没有政治权利、社会权利和民事权利?这是现有理论难以回答的问题。但是,赋予智能机器人以某种民事主体资格在未来有可能成为现实。

     其次,隐私保护问题。未来时代是三者叠加:移动互联网+大数据+机器智能,人类社会将进入一个透明的、没有隐私的时代。普通人的生命与健康、财产与身份、行踪轨迹等,除国家公务人员按照特别法规定应给予必要的公示之外,任何人都要把它看作是个人隐私,应该受到法律保护。在传统社会,个人隐私被泄露是个体性的。但是,在今天、明天就是集体的、甚至是整个社会的隐私泄露。我们的一举一动在大数据面前都会一览无遗。人类怎么保护自己的隐私?科技公司,如谷歌、苹果、脸书、阿里巴巴、腾讯、百度等,拥有很多用户信息,这些信息是否是依法收集和处理的,我们作为信息的提供者是不是无动于衷?这都是需要考虑的问题。

     再次,责任承担问题。人工智能时代有两种侵权行为值得关注,一是侵权人对智能系统进行非法控制而造成的损害,二是智能系统自身的产品瑕疵而造成的损害。侵权人采取黑客攻击、病毒传输和其他的非法手段控制机器人,对人类社会造成危害,侵权责任由侵权人承担,这个不难理解。问题在于人工智能直接给人造成损害的责任承担,这是值得考量的问题。日本曾经发生过工业机器人在生产过程中将工人放入冲压机之下碾死的惨痛事例。本世纪在美国,手术机器人在治疗病人的过程中造成创伤、死亡病例高达87例。在这种情况下,需要分清责任事故从何而起,是设计人的“技术漏洞”,还是操作人的“不当使用”,甚至可能是智能机器人超越原控制方案的“擅自所为”,此类事故的原因和事故责任的追究都是值得考虑的新问题。

     ■ 第二个是伦理问题。

     伦理问题的重要程度不亚于法律问题。著名科幻作家阿西莫夫提出了机器人的四定律,其中最重要是第零定律,即机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。机器人定律对目前处理人工智能有关问题具有指导意义。伦理问题包括诸多方面:

     算法偏差和机器歧视问题。机器的工作速度、工作精度、工作态度都高于自然人。但是,机器也会出错,包括机器算法偏差和歧视问题。比如谷歌推出的机器人误把两名黑人标注为“大猩猩”,微软公司推出的聊天机器人,在发布24小时内,就成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。这就是一个伦理的问题。如何为机器人设置最低的道德标准和道德框架,是非常重要的问题。

     虚拟环境“麻醉”问题。在未来的人工智能时代,我们将会被无穷尽的电子信息所包围,人与人之间的交往有可能被人机之间的交往所取代。人工智能的模拟行为在很大程度上会取代人的自主行为,这就出现了虚拟环境的“麻醉”问题,从生活、起居、出行到办公,所有的事情都由机器人协助处理,人类是否会日渐沉迷于人工智能及其营造的虚拟环境?人类生存和发展的本来意义何在?

     人机情感危机问题。我们所讲的社会指人类共同体所组成的社会,是人与人之间正常交往的社会。但是,未来的机器人会带来人机的情感危机。现在我们不仅发明了代替体力劳动的工业机器人,还发明了代替脑力劳动的机器人,甚至还可以发明代替人类情感的伴侣机器人、性爱机器人。这无疑会给人类社会的正常发展和生活情趣带来极大的挑战。

     ■ 第三个是社会问题,即人机替换问题。

     未来,人类60%的职业、30%的工作将被人工智能取代。根据牛津大学的统计,未来人工智能的发展会取代1000万个工作岗位,秘书、客服、助理、翻译、律师、医生、会计,乃至于证券所的交易员、信贷员的工作都可能被取代。一般来说,被取代的工作和岗位具备如下特征:凡是可以描述的、重要的、有固定规则和标准答案的工作岗位,都有被智能机器人取代的可能。

     人机替换带来诸多社会问题。被人工智能所取代的蓝领和白领到哪儿去?是不是被抛弃到无用阶层之中?他们不能领取劳动报酬,而是领取社会保障金以维持自己的生活。对此,比尔·盖茨提出应该征收机器人税。另一问题是,社会出现大量的机器人,包括机器人工人和机器人白领,它们有没有权益?如果有权益如何保护和维系?

     此外,人工智能领先的国家与人工智能滞后的国家之间的差距和鸿沟如何进行填补?新的不平衡又出现了,如何加以解决?这都是未来时代要考量的问题。

     ■ 第四个是监管问题。

     十八大、十九大针对社会治理提出“良法善治”和“多元共治”。就人工智能导致的问题而言,如何进行监管?我认为“多元共治”是非常重要的,主要是政府的监管,也包括行业自治和企业自律。目前的监管难题包括两个方面:

     首先,监管领域的空白。比如在无人驾驶领域,政府监管的法律规则还是空白的。无人驾驶的准入政策、安全标准、配套设施都需要从法律层面加以规制。美国从联邦政府到州政府都出台了相应的文件。对于当前最火爆的人工智能的若干领域,国家应该进行研究并在必要的时候出台相应的政策文件,包括法律文件。

     其次,监管技术的不能。人工智能对监管的技术要求更高。机器人讲粗口、说脏话、性别歧视和种族歧视,这个过程是如何进行的,为什么会出现计算偏差的问题?需要了解整个人工智能发生作用的全过程,所以监管技术的研究也必须及时跟进。

     人工智能时代的法律、政策与伦理

     人工智能时代,应确立以安全为核心的多元价值目标,构建以伦理为先导的社会规范调控体系,以技术和法律为主导的风险控制机制。一方面,法律控制是风险治理机制的重要手段。另一方面,技术控制是风险治理机制的重要措施。风险规避的主要路径,是事先预防而不是事后补救,即从技术研究开始规制,以预防技术产生的负面效应或副作用。风险规避的基本范式,是从技术研发到应用过程的责任制度,包括社会道义责任、科学伦理责任和法律责任。风险规避的重要措施,是奉行技术民主原则,包括技术信息适度公开和公众参与、公众决策。

     结语

     人工智能时代已经到来,我们不仅需要一种科学的智慧,同时也需要制度的理性。

     吴汉东,中南财经政法大学资深教授,国新南方知识产权研究院首席专家

     本文根据中南财经政法大学吴汉东教授在“2017人工智能与法律的未来高峰论坛”上的主题演讲整理。

     拓展阅读:

     2017年全球人工智能政策十大热点

     2017年是人工智能迅猛发展的一年,技术在进步,不断取得突破,各行各业都在和人工智能技术相结合。2017年也是人工智能公共政策异常热闹的一年,各国的人工智能战略还在持续出台,自动驾驶、算法规制、人工智能伦理等细分领域的政策、立法、标准在政府、科研机构、行业公司等多层面逐步展开。

     人工智能有望引领一场新技术革命,带来全新的或者更深层次的法律、伦理、经济等社会制度影响和问题,因此需要搭建起政策和技术之间交流沟通的桥梁和连接,及早让跨学科、多元化的参与者共同来推动普惠的人工智能发展,确保人工智能能够有益于人类社会。

     为此,腾讯研究院法律研究中心对2017年全球人工智能政策进行了盘点,梳理出了具有业内影响力和引领作用的十大政策,为国内人工智能政策研究提供参考的同时,也希望有更多跨学科、多背景的人员参与到人工智能政策法律的讨论和制定中来,共同实现智能网络社会的包容性、普惠性和可持续性。

    

     1

     THE FIRST

     “阿西洛马人工智能原则(Asilomar AI Principles)”推出,确保AI有益于人类社会

     【概要】2017年1月,未来生命研究院(FLI)召开主题为“有益的人工智能(Beneficial AI)”的阿西洛马会议。法律、伦理、哲学、经济、机器人、人工智能等众多学科和领域的专家,共同达成了23条人工智能原则,呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。包括霍金、伊隆·马斯克、德米斯·哈萨比斯等在内的近四千名各界专家签署支持这些原则。

     【评析】人工智能的发展引起了国际社会对于伦理问题的关注,阿西洛马人工智能原则被称为人工智能发展的“23条军规”,是目前国际社会对AI伦理相对系统的阐述,具有较大的影响力。但该伦理原则尚处于初期阶段,很多问题缺乏广泛的共识,需要进一步探索。我国尚无类似伦理指南,应积极构建人工智能伦理指南,发挥引领作用,推动普惠和有益人工智能发展。

     ☆【链接】

     https://futureoflife.org/ai-principles/

     2

     THE SECOND

     美国计算机协会(USACM)发布算法透明和可责性七项原则,致力于解决算法歧视

     【概要】1月12日,美国计算机协会下属美国公共政策委员会发布文件,在其中阐述了关于算法透明和可责性的七条原则。七大原则分别为:(1)意识:相关主体应意识到算法中可能存在的偏见及潜在危害。(2)获取和救济:对算法决策提出质疑并获得救济。(3)责任制:即使无法详细解释算法如何产生结果,机构也应对其所使用算法的决策负责。(4)解释:鼓励使用算法决策的组织和机构对算法所遵循的程序和所做出的具体决策进行解释。(5)数据来源:算法的构建者应该对训练数据的收集加以描述。(6)可审查性:模型、算法、数据和决策应被记录,以便在怀疑有损害的情况下对其进行审查。(7)验证和测试:机构应使用严格的方法来验证其模型,并记录方法和结果。

     【评析】随着人工智能的发展,算法歧视与算法黑箱的问题逐步进步公众视野。出于包括技术、经济和社会等在内的很多因素,算法所作出的决策可能是不透明的。该项原则的发布是解决算法歧视问题的初步尝试,相信后续会有更多的致力于解决算法歧视的公共政策出台,以尽量减少潜在的危害。

     ☆链接

     https://cacm.acm.org/magazines/2017/9/220423-toward-algorithmic-transparency-and-accountability/fulltext

     3

     THE THIRD

     欧盟议会通过全球首个“关于制定机器人民事法律规则的决议”,探索机器人和人工智能民事立法

     【概要】2月16日,欧盟议会投票通过一项决议,就制定《机器人民事法律规则》提出具体建议,并要求欧盟委员会提交关于机器人和人工智能民事责任的法律提案。决议提出诸多制度:成立统一的机器人和人工智能监管机构;针对更高级的机器人建立登记制度;引入电子人格以促进自主智能机器人(尤其是无形AI)的登记、保险和管理;提出强制保险、赔偿基金等新的责任规则;提出伦理原则和《机器人宪章》以保障负责任的创新;针对计算机和机器人生成的可版权作品界定“独立智力创造”标准以明确AI智力成果的知识产权保护。

     【评析】欧盟是以法律理性保障公民权利的典范,对新技术和新事物的立法和监管探索,走在世界前列。但创新与监管历来存在紧张关系,需要维持一种平衡状态。人工智能有望引领新技术革命,对人类社会方方面面产生重大影响,其监管应当包容、审慎,结合实际发展和应用逐步探索。

     ☆链接

     http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN

    

    


     4

     THE FORTH

     德国提出全球首个自动驾驶汽车伦理原则,道德困境决策不可事先编程

     【概要】2017年6月,德国交通部下属的伦理委员会发布一份《自动和联网驾驶》报告,在其中提出了自动驾驶汽车需要遵守的20条伦理规则。这些伦理规则的核心内容包括:(1)保护个人优先于其他一切功利主义的考虑;(2)当危险情况不能避免时,保护人类生命优先于其他法律利益,为了避免造成人员伤亡,可以给动物或者财产造成损害,这在编程上是被允许的;(3)道德困境之下的决策依赖于现实的具体情况,不可能被清楚地标准化,因此也不可能被事先编程;(4)在面对不可避免的事故时,禁止基于人身特征(年龄、性别、生理或者心理状况等)进行歧视,同时不得牺牲不相关方。

     【评析】人工智能伦理是2017年的热点,很多讨论都设定在自动驾驶的场景,包括MIT自动驾驶道德决策在线问卷、IEEE伦理白皮书和标准等等。但德国系统提出自动驾驶的20条伦理规则在全球范围内尚属首次。德国连同美国、英国等的自动驾驶汽车政策说明在自动驾驶领域规则先行的重要性。但伦理规则的探索要避免给产业套上紧箍咒,阻碍创新。

     ☆链接

     https://www.bmvi.de/SharedDocs/EN/Documents/G/ethic-commission-report.pdf?__blob=publicationFile

     5

     THE FIFTH

     中国出台《新一代人工智能发展规划》,全方位打造AI强国

     【概要】7月20日,国务院正式印发了《新一代人工智能发展规划》,从战略态势、总体要求、资源配置、立法、组织等各个层面阐述了我国人工智能发展规划。规划提出到2020年,我国人工智能总体技术和应用与世界先进水平同步;到2025年基础理论实现重大突破;到2030年人工智能理论、技术与应用总体均达到世界领先水平,我国将成为世界主要人工智能创新中心。

     【评析】近年来,越来越多的国家认同人工智能将带来下一次产业革命,美国、英国、欧盟、加拿大、日韩等国家和地区都提出了各自人工智能战略。《新一代人工智能发展规划》,是中国继美国人工智能国家战略发布后在人工智能领域的顶层设计和战略部署。与各国战略相比,我国规划突出强调技术与应用,而相对淡化人工智能发展的其他方面或问题,包括人力资源与教育、标准、数据环境等。在AI立法与促进、教育与人才培养、AI带来问题应对等诸多方面,我们也应该积极探索,不仅提升“硬实力”,也要提升“软实力”,从追随者走向引领者。

     ☆链接

     http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm

    

     6

     THE SIXTH

     韩国国会提出《机器人基本法案》,积极探索机器人法律问题

     【概要】7月19日,韩国国会议员提出《机器人基本法案》,旨在确定机器人相关伦理和责任的原则,应对机器人技术的发展带来的社会变化。法案规定政府应制定政策,赋予机器人具有相应权利义务的电子人格地位,对机器人进行分类、调查和登记,确定机器人导致的损害的责任和赔偿方案。法案专设“机器人伦理规范”章节,明确机器人的相关伦理原则。此外,法案设立专门的国家机器人伦理政策委员会,每三年制定和修改机器人相关政策立法。

     【评析】2008年,韩国出台《智能机器人法》,促进机器人产业发展。2017年的该法案更加集中地讨论机器人的法律问题并积极关注机器人的伦理规范。但是,由于该法案中的很多立法内容是对韩国现有法律框架的突破性尝试,目前该法案在韩国进展缓慢,有待韩国立法部门及其他相关部门进一步讨论。

     ☆链接

     https://www.lawmaking.go.kr/lmSts/nsmLmSts/out/2008068/detailRP

     7

     THE SEVENTH

     美国国会推动自动驾驶汽车立法,加速产生创新进程

    

     【概要】9月6日,美国国会众议院通过一部自动驾驶法案(SELF DRIVE ACT);9月28日,美国国会参议院提出另一部自动驾驶法案(AV START ACT)。两部法案略有差异,预计2018年将获美国国会两院正式通过,成为法律。法案旨在促进自动驾驶技术和汽车发展,规定美国联邦对自动驾驶汽车设计、制造和性能的立法优先权,允许自动驾驶汽车在公共道路上测试,显著增加自动驾驶汽车豁免的数量并逐年提高,成立自动驾驶汽车委员会探索自动驾驶汽车安全标准。此外,还包括网络安全、隐私保护、消费者教育等方面的规定。

     【评析】美国国会正在推动的自动驾驶汽车法案可以说是全球范围内首个重大的自动驾驶汽车立法,不仅仅会对美国自动驾驶汽车技术和产业产生重大影响,而且会给世界其他国家和地区产生示范效应。该法案预计将在2018年通过,结束美国各州对自动驾驶技术和汽车的碎片化监管状况。该法案受到了美国科技公司的普遍欢迎,也说明了法律的作用不仅仅是限制,而是可以促进甚至加速创新进程。

     ☆链接

     https://www.congress.gov/bill/115th-congress/house-bill/3388

     https://www.congress.gov/bill/115th-congress/senate-bill/1885

     8

     THE EIGHTH

     爱沙尼亚提出机器人法案,赋予人工智能代理人法律地位

     【概要】10月16日,爱沙尼亚政府公布人工智能法案,考虑赋予人工智能法律地位,使其成为人类的代理人,并确定其在事故中的责任问题。法案提出,目前人工智能的法律地位应介于独立法律人格(比如公司)和无法律地位的财产之间。政府希望通过该法案赋予人工智能以代理权,但最终的法律权利与义务由被代理人承担。

     【评析】该法案是全球范围内考虑赋予人工智能代理人法律地位的重要立法,虽然法案还在讨论阶段,但对于未来各国探索人工智能的法律地位具有积极的借鉴意义。爱沙尼亚国内评估机构认为该法案如果能够通过,可以进一步促进爱沙尼亚本国经济的数字化发展,吸引投资,为人类免除简单的重复性劳动。此外,爱沙尼亚国内也在探讨未来是否给予人工智能独立的法律地位更为合适,但是其国内的技术专家从人工智能技术发展的角度认为目前还为时过早。

     ☆链接

     http://www.independent.co.uk/news/business/news/estonia-robots-artificial-intelligence-ai-legal-recognition-law-disputes-government-plan-a7992071.html

     9

     THE NINTH

     美国纽约通过算法问责法案,促进政府自动决策算法的公开透明

     【概要】12月11日,纽约市议会通过了算法问责法案,以解决算法歧视问题,该法案需要市长签署后才能正式生效。根据该法案,纽约市将成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,专门监督市政机构使用的自动决策算法的公平性、问责性和透明度。该小组负责推动政府决策算法开源,使公众了解市政机构自动化决策的过程,并就如何改进算法问责制和避免算法歧视提出建议。

     【评析】该法案是美国规制算法的重要立法。随着人工智能技术不断发展,美国的自动化决策系统逐渐进入政府决策和司法应用领域。该法案所提倡的促进政府自动决策算法的公开透明和可解释性,将促进政府决策中的算法的可信度,为其他国家和地区制定人工智能算法监管规则提供了有益借鉴。

     ☆链接

     http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0

     10

     THE TENTH

     IEEE发布《人工智能设计的伦理准则(第二版)》,全面阐述人工智能13个方面的伦理事项

    

    


     【概要】12月12日,电气电子工程师学会(IEEE)发布《人工智能设计的伦理准则(第二版)》。新版人工智能伦理准则进一步丰富了伦理事项,涵盖一般原则、价值嵌入、研究和设计的伦理方法、AGI和ASI的安全、个人数据、自主武器、经济和人道主义问题、法律、情感计算、教育和知悉的政策、经典伦理问题、混合现实、福祉指标等13个方面,并针对这些伦理事项提出了具体的建议,比如在法律方面,认为当前技术发展还不足以赋予人工智能法律地位。这些建议可以给后续标准制定等政策工作提供参考。

     【评析】第二版准则将人工智能伦理事项从9个方面扩充到了13个方面,是来自于学术界、产业界、社会研究领域、政策研究领域以及政府部门的,具有技术、人文等多学科背景的数百名参与者达成的共识,是全球范围内系统、全面阐述人工智能伦理问题的重要文件,并在不断发展和完善。人工智能伦理准则可以给IEEE正在推动的11个与人工智能伦理相关的标准制定提供建议。两者配合,有望将人工智能伦理从抽象原则落实到具体的技术研发和设计。但是,其中的伦理要求能否在技术层面真正实现,当前还存在争议,需要更多探索。

     ☆链接

     https://standards.ieee.org/develop/indconn/ec/autonomous_systems.html

     指导团队:

     司 晓 腾讯研究院院长

     张钦坤 腾讯研究院秘书长

     研究团队:

     蔡雄山 腾讯研究院法律研究员中心首席研究员

     曹建峰 腾讯研究院法律研究中心研究员

     孙 那 腾讯研究院法律研究中心研究员

     祝林华 腾讯研究院法律研究中心助理研究员

     文章来源:腾讯研究院

     本文内容均来自网络,感谢每一位作者的辛苦付出与创作,此号均在文章开头备注了原标题、作者和来源。版权归属原作者。如涉及版权等问题,可在本公号后台留言,我们将在第一时间处理,非常感谢!

     感谢您的阅读!“中国好学者”倡导“理性之思想,自主之精神”,专注于学者、学界、学术的发展进步,定期向您推荐中国优秀学者及其文章。

    

     敬请关注“中华好学者”!

     专心聆听来自学术界一流学者的声音

     8万关注者的不二选择长按识别二维码,关注“中华好学者”~公众号名称:中华好学者

     ID: zhonghuahaoxuezhe

     华家学园

     百家争鸣,华家领导

     以华家意识形态引领中华民族伟大复兴

    

     点击“阅读原文”,进入中华好学者网

     ↓↓

    http://weixin.100md.com
返回 中国好学者 返回首页 返回百拇医药