便利背后隐藏的“责任”陷阱
“如果引入这套AI系统,我们公司的物流效率将大幅提升!”
新任项目负责人Takashi对他的演讲充满信心。然而,总统的冷言冷语却让气氛凝固了。
“如果人工智能给了我错误的路线,导致我的卡车发生事故,谁来负责?创建人工智能的系统公司?还是我的司机?”
孝司已经说不出话来了。只担心AI性能和实施效果,“万一出事,责任重大”我根本没想过这个问题。在人工智能自主决策的时代,“由人类操作的机器”应该使用相同的规则吗?如果责任仍然模糊,引入人工智能就太可怕了。
出现在像 Takashi 这样的人工智能开发者、提供商和用户面前的是经济产业省的《人工智能运用民事责任解释与适用指南》是。
该指南旨在解决人工智能的黑箱性和自主性导致的“责任不明”的问题,为大家安心使用人工智能提供方向。在本文中,我们将揭开本指南并解释人工智能社会中的“责任规则”。
AI与人类关系决定的“两种AI类型”
在考虑涉及人工智能的问题的责任时,该指南根据其用途将人工智能分为两种类型。
- 补助/支援型AI:这是一种仅作为AI判断的辅助或支持的类型,最终目的是干预人类的判断和行动。在这种情况下,即使人工智能产生了错误的输出,责任也将根据本应做出适当判断的“人工智能用户(人类)”是否以应有的谨慎使用人工智能来确定。
- 依拠/代替型AI:该类型是以替代人的判断和行动为前提而提供的,计划依靠AI的输出来使用。在这种情况下,要求工作的准确性相当于或高于同类型工作的正常人,用户的责任从“做出适当的判断和行动”转向“正确地构建和操作包含人工智能系统的业务流程”。开发商需要采取设计和解释措施来证明和保持高水平的安全性。
【案例分析】7个常见的人工智能问题及责任所在
让我们看看指南中列出的七个假设案例中谁可能要承担责任。
- 配送ルート最适化AI(补助/支援型):这是一起卡车在人工智能指示的崎岖道路上脱轨的案例。驾驶员应该根据每种情况做出安全决策,而人工智能只是一种辅助,除非有特殊情况,否则驾驶员(用户)的过错将被归咎于驾驶员(用户)。
- 律师工作支持AI(协助/支持型):这是一个相信AI输出的“假想法庭判例”的律师败诉的案件。作为专家的律师有义务进行自己的调查和确认,而仅依赖人工智能输出的律师(用户)则要承担责任。
- 画像生成AI(补助/支援型):这是一起生成的与名人极其相似的图像被用于广告中的案例,侵犯了公开权。即使用户在没有意识到的情况下使用,也会被判断其目的是为了吸引客户,并且很有可能被认定为用户的过错。另一方面,在特殊情况下,开发商故意出售“经常生成与名人相同或相似肖像的人工智能”,开发商的行为本身可能会被视为侵犯形象权。
- 交易筛选AI(辅助/支持型):在这种情况下,租户筛选人工智能包含对某些属性(性别等)不利的偏见。如果从开发时起就存在偏差,并且开发者未能纠正或解释,则开发者可能要承担责任。如果用户不检查AI模型的整体公平性并采取必要措施,也可能被追究责任。
- 视觉检测AI(信赖型/替代型):这是一起高精度检查人工智能忽略异物导致消费者受伤的案例。制造商因制造缺陷而承担产品责任。如果检查承包商不忽视建立适当的业务流程并运行人工智能以提高其准确性(持续学习等),则可以免除责任。如果开发人员设计和解释其工作以满足所需的准确性,那么他们也不太可能承担责任。
- 自主机器人/AMR(信赖型/替代型):这是机器人在仓库中与人相撞的示例。如果事故是由软件缺陷引起的,开发商(制造商)很可能因设计缺陷而承担产品责任。更新后出现的错误也可能需要承担产品责任,尽管对于交付时是否存在潜在原因或是否应考虑最终更新之前的影响有不同的解释。
- [附录] AI代理(客户支持):这是一个AI自主搜索外部信息并给出错误答案的例子。根据整个业务流程是否保证高精度,分为“依赖/替代型”或“辅助/支持型”,用户和开发者的责任和注意义务的内容也相应变化。
| 假设案例 | AI类型 | 麻烦详情 | 主要责任单位 | 确定责任和注意义务的基础 | 产品责任是否适用(估计) |
|---|---|---|---|---|---|
| 使用视觉检测 AI 检测被忽视的异物 | 依拠/代替型 | 检查人工智能忽略了异物,导致购买该产品的消费者受伤。 | 制造业者 | 由于制造缺陷而承担产品责任。如果检查承包商没有忽视建立适当的业务流程,则可以免除责任。 | 适用(因为作为产品一部分的AI存在缺陷,对生命和身体造成损害) |
| 自主机器人(AMR)碰撞事故 | 依拠/代替型 | 仓库中的机器人与人相撞,造成损坏。 | 开发商(制造商) | 如果事故是由软件bug引起的,很容易被视为设计缺陷而被追究责任。 | 适用(由于机器人内置软件存在缺陷,属于可移动财产) |
| 配送路线优化AI引发脱轨事故 | 补助/支援型 | 一辆卡车在人工智能指示的崎岖道路上行驶,导致脱轨事故。 | 用户(司机) | 驾驶员应该根据每种情况做出安全决策,而人工智能只是一种辅助,除非有特殊情况,否则用户将承担过错。 | 很大可能不会被应用(因为涉及人的判断,很难将单个软件缺陷视为直接原因) |
| 因律师工作支持AI而败诉 | 补助/支援型 | 一位相信人工智能输出的虚构法庭判例的律师输掉了一场诉讼。 | 用户(律师) | 作为专家的律师有义务进行自己的调查和确认,而仅仅依靠人工智能输出的用户则需要承担责任。 | 不适用(仅限智力活动产品和信息提供,不考虑产品缺陷) |
| 图像生成AI侵犯公开权 | 补助/支援型 | 在广告中使用与名人非常相似的生成图像侵犯了公开权。 | 用户(或开发者) | 如果目的是为了吸引客户,就会发现用户有错。如果开发者故意提供鼓励生成的机制,则开发者有责任。 | 不适用(因为侵犯知识产权不属于产品责任法所涵盖的损害) |
| 交易筛选人工智能造成的不公平偏见 | 补助/支援型 | 租户筛选人工智能存在偏见,对某些属性不利,导致判断不公平。 | 开发者/用户 | 如果开发者未及时纠正或提供解释,或者用户未确认公平性或采取措施,各方均可能承担责任。 | 不适用(因为它是无形信息/算法的偏差,而不是对身体或财产的损害) |
| AI 代理的答案不正确 | 辅助/支撑型或依赖/替代型 | 当人工智能自主搜索外部信息并提供错误答案时,就会造成损害。 | 用户/开发者 | 根据业务流程是否保证高精度而分为不同类型,注意义务的内容也相应不同。 | 不适用的可能性很大(因为主要作为服务或信息提供而提供,不太可能属于产品缺陷类别) |
如果闹上法庭怎么办?举证障碍和国际规则
当问题真正出现并提起诉讼时,受害者面临着独特的障碍。
- 证明问题:由于人工智能的技术专业性和证据分布不均,受害者很难证明其疏忽或缺陷。为此,正在讨论文件制作令的使用以及医疗和环境诉讼中使用的“事实上的过失推定”和“事实上的缺陷推定”等法律原则对人工智能案件的适用性。
- 程序问题:当跨境人工智能服务出现问题时,国际管辖权和适用法律就成为问题。已经确定,如果日本用户因外国人工智能业务遭受损害,如果对方以日语提供服务,日本法院可能有管辖权,如果侵权结果发生在日本,则很可能适用日本法律。
“正确敬畏”人工智能,加速创新
明确责任规则绝不是人工智能引入的障碍。人工智能开发者和使用者需要按照《人工智能商业指引》等指引,建立风险评估和治理体系,以预防问题的发生。了解规则并履行每个人应尽的责任是发展安全繁荣的人工智能社会的关键。
信息
【术语解释】
不法行为责任
这是故意或过失侵犯他人权利或利益并造成损害的人的责任。
制造物责任
如果产品的缺陷对人的生命、身体或财产造成损害,制造商等无论是否存在疏忽,都应对损害承担责任。
黑匣子性质
这是指人工智能内部决策过程和依据的本质是不透明的,人类难以理解和解释。
公开权
这是独占利用名人姓名或肖像的经济价值(吸引顾客)的权利,从而吸引顾客。
偏见
由于人工智能训练数据或算法的偏差,输出对特定属性(例如性别)不公平有利或不利的结果是一种统计趋势。
抗微生物药物耐药性
自主移动机器人的缩写。没有预设轨迹的机器人,能够自主识别周围环境,并在避开障碍物的同时行驶到目的地。
人工智能业务指南
这些指导方针为参与人工智能开发、提供和使用的企业应牢记的安全、治理等方面制定了指导方针。
[参考链接]
经济产业省(外部)
日本行政机关。我们正在制定人工智能社会落地的规则,如发布《人工智能应用民事责任解释与适用指南》、制定《人工智能企业经营者指南》等。
人工智能应用民事责任解释与适用指南[1.0版](外部)
这是由经济产业省编写的文件,整理了有关在使用人工智能过程中发生损害等情况下的民事责任归属的现行法律的解释和适用的问题和想法。
[参考视频]
[相关文章]
经济产业省《AI民事责任指南》——将责任界定分为辅助型和替代型两种
您可能还想阅读的文章。从新闻角度解释经济产业省指导意义的文章,包括其背景、概述和国际比较。
