世界知名物理学家斯蒂芬·霍金警告过人工智能的危险。他认为,人类必须找到一种方法,在其重大破坏造成之前迅速发现所面临的威胁。特斯拉公司首席执行官伊隆·马斯克也持类似观点,他认为,人工智能的发展必须受到控制。
当然,我们不能因噎废食,但是要高度树立风险意识,时刻关注并及时处理人工智能发展中可能出现的各种挑战及问题。几百年来创造丰富物质财富的工业革命留下的重要教训之一是“先发展,后治理”,它付出了生态环境失衡等严重代价。在人工智能时代,要充分吸取这一深刻历史教训,切戒以牺牲安全为代价的粗放式增长,坚决走“边发展,边治理”的科学之路。要充分认识和评估每项“颠覆性创新”可能存在的漏洞或盲点并及时加以处置,尽可能降低人工智能发展中的风险。
在先行先试中探索发展之路 上海在大数据、相关人才和应用技术三方面的优势较为突出,这是发展人工智能产业的良好基础。如何在先行先试中探索走出一条人工智能的顺利发展之路?笔者有几点建议。
首先,要坚持以人为本的发展路线,不仅有利于人的方便,更要有利于人的安全。要牢固树立风险意识,不片面追求发展速度,“颠覆性创新”成果必须过“安全关”,如用区块链技术给智能家电“加锁”等。
其次,要及时优化政府管理体制、监管模式,注意可能出现的社会新问题、法律新空白等。实现任何创新驱动都是复杂的社会系统工程,人工智能的健康发展需要与时俱进的完备的政策框架,避免用老办法处理新问题。同时,要形成“人工智能创新生态系统”,包括在数据整合、平台建设、示范应用、产学研效率提高、产业生态支撑体系、产业政策等方面的全面规划和协调推进。
第三,要科学预测人工智能的发展趋势,加强人工智能前瞻研究和理论探讨。信息社会的网络化智能化发展改变了人类认识和连接世界的方式,使得不少传统的经典理论面临时代的挑战。由于人工智能模糊了虚拟和物理世界的界限,更是衍生出许多复杂的法律、伦理和哲学方面的问题。对此,目前国际上尚未建立起相关方面的共识。
(作者为上海社会科学院信息所研究员)
上一页 [1] [2] [3] 下一页