科技

《人工智能安全与法治导则》发布:明确人工智能的法律主体

8月30日,2019世界人工智能大会法治论坛在上海展览中心举行。法治论坛的主题为“共建未来法治,共享智能福祉”,以推动产业发展和相关制度的跟进,更好服务保障AI国家战略大局,向世界展现人工智能治理的中国方案。

在这一论坛上,2019世界人工智能大会法治论坛与2019世界人工智能安全高端对话联合发布《人工智能安全与法治导则(2019)》(下称“《导则》”)。

为科学预判和管控人工智能发展的安全风险,按照循序渐进、分类施策的原则,每年发布的《导则》将聚焦若干关键问题的治理。2019年度的重点是算法安全、数据安全、知识产权、社会就业和法律责任五个方面。

在算法安全上,《导则》指出了三种风险,包括算法模型存在的技术性缺陷可能导致人工智能系统无法正常运行,算法设计者自身存在价值偏见导致人工智能系统无法正常运行,以及因为算法日趋“黑箱化”可能导致技术失控等问题。

对此,《导则》提出,应通过政策和法律引导,开展人工智能算法安全的评估检测;推动技术伦理的算法导入,要求人工智能开发者设计高可解释性的智能系统;同时,加强智能算法的透明监督,人工智能企业、行业应建立相应的算法监管体制,保持与政府监管的协同。

数据安全则涉及数据隐私、数据保护和数据质量三方面,《导则》强调,要加强数据安全立法和执法,对采集和使用敏感个人数据的人工智能企业/行业须加强法律和行政监管;丰富人工智能技术发展路径,通过政策手段支持基于小数据的人工智能算法技术;并提升人工智能数据资源管理水平,促进公共部门和私营部门数据资源共享和流通。

人工智能知识产权指的则是利用人工智能进行文学、艺术等作品创作而产生的知识产权问题,包括算法知识产权、数据知识产权和创作物知识产权。对此,《导则》提出,将加强人工智能算法的专利保护,鼓励人工智能数据开放性保护,并促进人工智能作品的知识产权化。

技术发展将对社会产生影响。人工智能大大提高了生产效率,也极有可能造成社会的结构性失业和收入差距加大等问题。对此,《导则》从法律层面提出了应对策略,包括出台法律法规,对面临人工智能技术替代的行业和职业进行监管和救助;加快人工智能新兴劳动力培养;加强人工智能时代社会收入分配调整,对遭遇人工智能冲击的传统行业劳动力进行保护和救助,提高社会二次分配的合理性与精准性。

人工智能的法律主体模糊、人工智能责任的界定复杂,这些是困扰法律法规介入人工智能进行有效监管的难题。此次发布的《导则》在“法律应对”中明确了当前人工智能的法律主体——弱人工智能时代,人工智能产品本身不具有独立的法律主体资格,人工智能产品的定位是“工具”,人工智能设计者、生产者、运营者、使用者承担法律主体责任;同时,应由产品设计者、生产者、运营者、使用者按照过错程度分担相应的法律责任。

论坛上,11名重量级专家学者围绕人工智能与法治相关应用和发展等话题进行了讨论和分享,包括上海市法学会会长,上海市高级人民法院原院长、二级大法官崔亚东,美国亚利桑那州最高法院院长、首席大法官罗伯特·莫里斯·布鲁特尔,最高法信息中心主任、中国司法大数据研究院院长许建峰,英国梅蒂斯研究所主席马克·比尔,和清华大学法学院院长申卫星等。

澎湃新闻
订阅新闻电邮