人工智能的可解释性与AI的法律责任问题研究

Law and Social Development(2022)

引用 0|浏览8
暂无评分
摘要
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论.人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策.然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的 成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性.法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的 是预防,不具有可解释性的人工智能无法实现法律责任的预防目的 .人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要