教育频道,考生的精神家园。祝大家考试成功 梦想成真!
会员登录 会员注册 网站通告:

经济学

搜索: 您现在的位置: 经济管理网-新都网 >> 经济学 >> 工业经济学 >> 正文

人工智能的“三宗罪”

http://www.newdu.com 2019/3/25 产经快评 goblue 参加讨论

    近几年,人工智能成为最火爆的风口。世界各国不约而同出台人工智能战略,地方政府大力招商引资,热钱竞相涌入,创业企业层出不穷。毫无疑问,人工智能是科技的发展方向,也正在深刻地改变着社会、经济、生活的方方面面,我们已经生活在一个人工智能广泛存在的世界。在人工智能获得应用的领域,其性能远胜过人类:下棋比你强,查资料比你快,看脸比你准……但真实的人工智能也并不像看起来那么美。投资机构、人工智能企业从自身的利益出发,往往报喜不报忧,它们一方面宣传、渲染、夸大人工智能的作用,另一方面却对人工智能的风险、危害避而不谈。接连两起波音737-max8坠机的初步调查结果显示,不是机械故障或驾驶员的误操作,人工智能系统的不当设计更可能是事故的原因。这提醒我们,在享受AI带来的各种好处的同时,还要警惕AI的可能风险。事实上,人工智能作为一种人类研究开发出来的技术,本身就带着它的“原罪”。
    一宗罪:AI并非无所不能
    2016年,Google旗下DeepMind的AlphaGo打败世界围棋冠军李世石引爆人工智能的热潮。AlphaGo借助于深度学习机制,由人工智能系统在海量数据上进行学习自主学习,实现棋力在短时间的突飞猛进。再之前IBM深蓝超级计算机在国际象棋比赛中打败世界冠军卡斯帕罗夫则是借助于专家优化过的开局走法和暴力穷举(插一句题外话,卡斯帕罗夫被AI打败后转而开始了对AI的研究,他的著作《深度思考:人工智能的终点与人类创造力的起点》已出版中文版)。当前的人工智能有两大局限。第一,人工智能基本都是专用智能而非通用人工智能,经过“训练”的人工智能系统只擅长某一方面的工作,在其他领域则无所作为。AlphaGo在围棋领域战无不胜,但让它参加在线游戏比赛必须重新设计代码和训练。第二,人类的思维特征是“小数据、大任务”,善于举一反三,基于以往的知识和经验,对未知的事件做出判断。相比之下,无论是专家系统还是深度学习,是建立在对有限经验的总结或基于有限数据训练的基础之上,是“大数据、小任务”。而现实世界中存在着许多偶然事件,由于人工智能系统没有“见过”这些偶然事件,所以当“偶然”变成现实时,就很难做出合理的应对。著名的“黑天鹅”故事也能够说明人工智能的这一弊端——通过输入大量的白天鹅图片,人工智能系统经过训练获得识别白天鹅的能力,而且准确率很高,但是当它遇到黑天鹅时就会做出错误的判断。
    人工智能的这一天生缺陷并非只停留在理论上,现实中已经有这样的实际案例发生。在李世石vs AlphaGo 1:4唯一获胜的一局中,当李世石走出白78挖的妙手后,AlphaGo认为自己有70%左右的胜率,但直到它下出第87手后才发现了自己的误算,结果之后连出昏招而落败。2016年5月发生的世界第一起自动驾驶汽车致人死亡车祸中,特斯拉Model S的驾驶员和自动驾驶系统在强烈的日光下都没有注意到拖挂车的白色车身,未及时启动刹车,从而与一辆垂直方向行驶证在左转的拖挂车相撞。MD安德森癌症中心在2016年6月与IBM签约将沃森用于癌症治疗,但由于未达到IBM所宣传的效果,MD安德森癌症中心在投入6200万美元后,2017年2月21日终止与沃森的合作项目。在这次埃航737 MAX8空难中,波音公司为了解决737 Max发动机前移造成的飞机出现大迎角失速的情况,利用机动特性增强系统(MCAS)自动调节飞机姿态,使机头在仰角过大时适当向下以避免出现大迎角失速。但是由于飞行员不熟悉MCAS机制,MCAS会错误的把飞行员的纠错操作误以为失速而做出强制性的调整。
    二宗罪:是代码就有bug
    当前主流的人工智能系统是以海量的数据和深度学习算法为基础的,需要人工设计深度神经网络模型,需要为它设定应用长青、提供标注好的训练数据,其本质上是一系列代码的集合,可以看作一种软件。只要是人开发的软件就会存在漏洞(bug)。这些漏洞轻则会造成资料的泄露,重则会造成经济损失甚至发生人员伤亡的重大事故。为了避免漏洞产生的不良后果,各种软件、APP都会经常性的发布漏洞补丁,或直接发布新的修正漏洞后的软件版本。软件漏洞的发现既有软件开发公司自己的检查,也有专业的软件和网络安全公司测试、监测,更重要的是由大量用户在使用过程中发现的,用户人数越多、使用的场景越多,越容易发现软件的漏洞。所谓“只要眼睛多,bug容易捉”。随着互联网从办公、个人生活等消费互联网、商业互联网领域进入产业特别是制造业、金融业、国防等领域的应用,人工智能系统的使用越来越内部化,不但使用的用户数量指数化减少,而且也缺少外部专业安全防护公司的监测,仅靠用户自己使用过程中发现漏洞的概率就小得多。同时在工厂、金融、国防等领域,一旦漏洞被供给造成的损失却大得多。如果完全把决策权交给人工智能或在生产一线缺少人类的参与,对利用漏洞进行的攻击可能更加难以防范和处理。
    三宗罪:AI会被恶意使用
    工具本身无所谓善恶,但是却可能被坏人用于作恶。核聚变既可用于发电,也可用于战争。同样,代码、软件、人工智能既可以用于造福人类,也可以为谋取个人或小团体的利益而用于损害社会福利。在商业层面,企业可以编写向自身利益倾斜而损害用户利益的代码,比如所谓对老顾客定高价的“大数据”杀熟(“大数据杀熟”更多的是一个道德问题而不是法律问题);平台企业将流量向自营业务导流而不是与第三方用户平等对待。人工智能基于用户习惯的推荐能够给用户带来方便,但同样能够被用于诱导用户,有目的地改变用户的习惯和倾向。我们以为自己是互联网的主宰,但实际上是由算法决定我们吃什么、买什么、看什么、听什么。人工智能系统可以在用户不知情的情况下,上传用户的隐私数据并用于其他未经用户未允许的商业用途。网络数据分析公司“剑桥分析”就被曝光利用Facebook上的5000万用户数据,帮助特朗普团队精准定位美国选民的喜好并随后投放广告,影响他们的政治立场和投票倾向。英国第四频道评论道:“全世界的选举不再是在家门口和演讲台上的争夺,而更多的是大屏幕和社交媒体上的争斗。这是一场看不见的信息战,一只看不见的手搜集了你的个人信息,挖掘出你的希望和恐惧,以此谋取最大的政治利益。”比尔·盖茨、霍金、埃隆·马斯克等人对人工智能无节制发展和滥用的后果表现出忧虑,他们担心人工智能会被用于军事用途,认为这可能是比原子弹还可怕的武器;还有人担忧人类最终会被机器人(人工智能)所控制和奴役。
    尽管科幻作家早在1940年就提出保护人类的“机器人三原则”——“机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾”,但在现实中,机器人如何判别人类就是一个难题,而且即使保护人类不受人工智能伤害的规范获得社会认可,成为人工智能行业的基本道德准则,但规矩从来不是约束坏人的,没有底线的个人或犯罪组织、恐怖组织依然可以将人工智能用于对人类的伤害。
    如何对待人工智能?
    也许人工智能像许多科技一样,同时拥有天使与魔鬼两张面孔,因此对于人工智能,既不能放任也不能放弃。第一,对人工智能的弊端给予高度的重视,并在法律法规、行业规范、技术流程等方面加以监测和规范,尽可能降低人工智能的恶意使用的可能。第二,人工智能在某些细分领域的能力超过人类,特别是在已知的重复性工作中具有优势,但这并不意味着人工智能替代人类做出判断。事实上,人类数万年进化形成的凭借经验甚至直觉做出判断的能力在复杂环境或面对未知事件时相对人工智能仍具有优势,此时的最终决策权应该掌握在人类手中。例如,飞机的人工智能操作系统不应该强行改变飞行员的指令。第三,人工智能不能完全替代人类,二者应当是发挥各自优势的协作关系,人工智能应该是人类智力的延伸,辅助人类更高效率地做出决策。
    

Tags:人工智能的“三宗罪”  
责任编辑:admin
相关文章列表
没有相关文章
请文明参与讨论,禁止漫骂攻击。 昵称:注册  登录
[ 查看全部 ] 网友评论
| 设为首页 | 加入收藏 | 网站地图 | 在线留言 | 联系我们 | 友情链接 | 版权隐私 | 返回顶部 |