教育频道,考生的精神家园。祝大家考试成功 梦想成真!
会员登录 会员注册 网站通告:

管理学

搜索: 您现在的位置: 经济管理网-新都网 >> 管理学 >> 观点 >> 正文

探索人工智能治理规范

http://www.newdu.com 2018/3/7 中国社会科学网-中国社会科学报 姚晓丹 参加讨论

    人工智能技术得到了越来越广泛的应用,但也带来了一些道德伦理和法律方面的争议。英国剑桥大学官网2月2日刊发该校生存风险研究中心执行主任肖恩·欧·埃吉尔泰革(Seán ó héigeartaigh)和计算机科学与技术系研究员马泰亚·亚姆尼克(Mateja Jamnik)等人撰写的文章表示,人工智能技术近年来发展较快,如果在社会层面上缺乏整体详细规划,将会带来消极后果。本报记者就此采访了有关专家学者。
    人工智能发展带来挑战
    埃吉尔泰革和亚姆尼克等表示,从股票交易到房地产价格确定、从检测欺诈行为到不同语言间的翻译工作、从创建每周购物清单到预测受欢迎的电影类型,人工智能已经在诸多领域得到了应用。在不久的将来,我们还将使用人工智能程序来了解人们的健康状况,发明新的药物和治疗方法;自动驾驶汽车将改变交通系统和城市规划方式。机器提高我们的生产效率,并帮助我们预测社会风险。
    然而,如果我们不在整个社会层面上仔细规划,人工智能技术的发展也可能会带来消极后果。学者提出,支撑自动驾驶汽车的技术可能会带来战场上的危险新武器;使工作自动化的技术可能会导致许多人失业;利用历史数据进行训练的算法程序可能会延续甚至加剧基于种族或性别的歧视;需要大量个人数据的系统,例如医疗保健系统,可能会导致人们的隐私受到损害。
    埃吉尔泰革和亚姆尼克等提出,面对这些挑战,不仅需要自然科学领域的专家学者贡献自己的智慧,也需要艺术、人文和社会科学领域的知识,需要深入研究与人工智能有关的政策和治理问题。
    将道德准则嵌入人工智能程序
    就此问题,法国国家科学研究中心主任研究员塞巴斯蒂安·科涅奇内(Sébastien Konieczny)在接受本报记者采访时表示,人工智能程序也有它们的弱点。如许多人工智能程序都具有深入学习后得出结论的功能,但这些人工神经网络就像是在黑匣子里运行一样,人们难以得知它做出决定的原因。可在实际应用中,有关机构或个人需要知晓所做决定的原因,以保证每个人都得到公平对待。尽管已经有研究人员在尝试对人工智能黑匣子的“可解释性”进行研究,但要从中有所发现则比较困难。
    人工智能程序不是完全中性的,它们也会受到偏见的影响。科涅奇内认为,“如果一个系统是由大量来自人类言语的数据驱动的,那么它会再现人类的偏见就毫不奇怪了”。人工智能程序不仅会受到系统设计者自身所持观点的影响,也会受到那些为人工智能程序提供培训的人的影响。
    

[1] [2] [3] 下一页

Tags:探索人工智能治理规范  
责任编辑:admin
相关文章列表
没有相关文章
请文明参与讨论,禁止漫骂攻击。 昵称:注册  登录
[ 查看全部 ] 网友评论
| 设为首页 | 加入收藏 | 网站地图 | 在线留言 | 联系我们 | 友情链接 | 版权隐私 | 返回顶部 |