共 1 条
从人工智能难题反思AI伦理原则
被引:31
作者:
杨庆峰
[1
,2
]
机构:
[1] 复旦大学应用伦理研究中心
[2] 复旦大学复旦发展研究院
来源:
关键词:
人工智能;
不可解释性;
透明性;
关联性;
D O I:
暂无
中图分类号:
B82-057 [道德与科学技术];
TP18 [人工智能理论];
学科分类号:
01 ;
0101 ;
081104 ;
0812 ;
0835 ;
1405 ;
摘要:
不同于以往的任何技术类型,人工智能是人类社会发展的重大历史事件,开创了一个新的时代。基于这样的背景,应对AI本身及其应用过程中产生的社会伦理问题就变成AI伦理思考的重要目标。目前AI伦理的很多思考多是从人类的权利和原则出发来构建伦理框架,如信任、安全、自主和尊严。事实上,AI伦理问题的产生很多是源自人工智能发展中的难题。人工智能发展给人类社会带来了哲学、社会和技术等三个方面的基本难题。因此,发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手。一旦从难题入手,就会发现不可解释性成为上述人工智能发展带来的难题。仅仅从技术上理解不可解释性已经不足以为AI伦理构建提供原则基础。通过人工智能与解释学两个路径的梳理,透明性与关联性成为支撑AI伦理的两个必要概念。
引用
收藏
页码:137 / 150+199
+199
页数:15
相关论文