可访问性声明

研究人员开发框架,以确定法律和道德责任的自治系统

发布于2021年11月24日

agapp客户端的学者获得了700英镑的奖励,开发一个法律和道德框架来追踪和分配自治系统背后的责任, 比如无人驾驶汽车或医疗系统.

自动驾驶的例子该项目将寻求建立谁对自主系统的决策和结果负责. 插图:Doug James在《AG手机客户端最新版本》上.

这个项目汇集了计算机科学家, 工程师, 开发人员, 律师, 监管机构和哲学家, 以及普通大众, 建立谁对人工智能(AI)背后的决策负责.

这个项目会问这样一个问题:一个自主系统什么时候采取影响你的行动, 我们如何确定谁对行动及其结果负责? 

该项目由英国研究与创新署资助, 想要解决这个复杂的问题吗. 

信任

易卜拉欣·哈卜力博士,读者 计算机科学系 新项目的首席研究员, 说:“目前, 对于谁应对自主系统的决策负责以及这些决策的影响负责,我们没有明确或一致的答案.

“只有人们信任围绕自主系统设计的人类过程,自主系统的好处才能得到利用, 发展, 和部署. 明确谁对自主系统的决策和结果负责, 什么时候,为什么他们要负责, 对信任这些新技术的生态系统至关重要."

保证

该项目将运行30个月,将有三个层次:概念、保证和实践. 

最初的概念工作将把哲学家和律师聚集在一起,以澄清责任的基本概念, 确定所涉及的代理, 哪里出现了“责任缺口”, 以及如何解决这些问题. 考虑到责任讨论中固有的含糊不清的风险以及为所有利益攸关方建立共同语言的必要性,这一点尤为重要. 

在保证一级的研究将调整在高风险系统的技术保证中使用的方法,以取得对系统责任可以追踪和分配的信心.

最后, 这将在实践层面上以可实施和系统的方法达到顶峰,该方法将使利益攸关方能够表明,对特定自治系统所实现的责任的追踪和分配是充分合理和完整的.

透明度

Zoë波特,美国的伦理学家 确保自治国际计划 也是该项目的合作研究员, 他说:“确定谁对自主系统的决策和结果负责尤其困难,因为当我们用决策机器代替人类时, 我们传统的责任归属框架被打破了.

“除了, 例如,有不同种类的责任, 因果, 角色, 道德, 以及法律责任——要完整地回答这个问题,我们需要把它们都考虑在内, 以及它们之间的关系."

所产生的方法将包括设计和开发阶段以及部署和调查事故和事件. 与临床合作, 工程和监管合作者以及公众, 它将通过一系列真实世界的案例研究来评估.

“重要的是,这是信任和透明,而不是指责,”Habli博士说, “偶尔发生的事故和事件是不可避免的,我们必须从中吸取教训. 通过使用我们的方法, 我们将能够在导致这起事件的决定中追究责任. 通过调查这些事件, 我们将继续迭代地调整我们的方法, 从经验中学习,帮助确保这不是指责,而是对所有利益相关者的透明度和信任."

进一步的信息:

“为可信赖的自治系统保证责任”项目是p英国研究与创新(UKRI)值得信赖的自主系统(TAS)项目的艺术. 它是 由UKRI战略优先基金资助,并由工程和物理科学研究委员会(EPSRC)提供. 助教计划将研究界和主要利益攸关者聚集在一起,推动跨学科的基础研究,以确保自主系统的安全, 可靠的, 有弹性的, 道德和信任.

该项目的合作组织包括英国国家医疗服务体系, HORIBA米拉, 以及自动驾驶汽车公司Wayve. 来自NASA艾姆斯的专家, 捷豹路虎和劳埃德船级社基金会也将支持该项目.

国际保证自治方案 在全球范围内推进机器人和自主系统(RAS)的安全性. 劳埃德注册基金会(Lloyd’s Register Foundation)和agapp客户端(agapp客户端)共同出资1200万英镑,与国际开发商团体合作, 监管机构, 研究人员等确保公众能从安全中受益, 确保和规范RAS的引入和采用.

项目调查人员为:

 

媒体询问

汤姆 短剑
新闻主任(孕妇封面)

关于这个研究

由研究与创新(UKRI)可信赖的自主系统(TAS)项目资助, “确保对值得信赖的自主系统的责任”项目将与临床合作, 工程和监管合作者以及公众来确定一个法律和道德框架来追踪和分配自治系统背后的责任.

探索更多我们的 研究.