在大范围使用深度学习技术之前,制定并向人工智能程序灌输一些道德规则很有必要。不过,学者认为,将“判断结果不取决于性别、年龄、肤色”的规则传授给人工智能程序目前还有困难。
最终决定权应由人掌握 在科涅奇内看来,目前应该建立具体的伦理问题管理委员会,制定有关人工智能和数字技术的研究规则。这可以帮助研究人员评估哪些界限是不可跨越的,防止研究工作发生不当的偏移。
埃吉尔泰革和亚姆尼克等表示,不能因为机器拥有大量的信息,人们就认为它们更可信。从实践结果来看,应该将最后的决定权留给人类,而不能完全依赖人工智能。因此,应该将系统配制成能够给出几个不同解决方案的形式,如果可能的话这些解决方案中还应该附有相关的原因及其后果,并让人类做出最终选择。
学者还提到,机器人既不善良也不卑鄙,更不应该有个人目的或计划,它们应该按照我们希望或者设计的那样完成工作。当人工智能出现一些意外副作用时,我们可以解决问题,不让这些副作用造成危险。如果机器人的活动造成了死亡或者刑法上规定的重大案件,为了给予遇难者应有的赔偿,有必要建立一个由制造或拥有这些机器的公司推动的保险基金。比起控制机器人,对那些控制机器的私人公司进行规制更显重要。
记者 姚晓丹
上一页 [1] [2] [3] 下一页