2 新兴产业演进的规律
科学技术的工程化、产业化是艰难而惊险的一跳,科学技术与产品之间存在着巨大的鸿沟,这一鸿沟需要科学家、工程师们无数的汗水、企业家们巨大的投入加以弥合,同时,跨越鸿沟的惊险一跳同样存在着巨大的不确定性。因此,前沿技术的产业化往往要经历曲折的历程,而且产业的发展壮大以及使通用目的技术在其他产业中发挥巨大威力,还需要互补技术、产品与产业的协同演进作为支撑。随着产品复杂性的提高与分工的深化,在前沿技术的产业化过程中,政府在技术推动(Technology-Push)与需求拉动(Demand-Pull)两方面都能发挥重要的作用。
(一)产业化的曲折历程
回顾第一次工业革命的历史可以发现,从1712年纽卡门发明世界上第一台具有广泛运用前景的蒸汽机开始,中间经过了包括瓦特在内的工程师们对其长达一个半世纪的漫长改良。大约在19世纪40—60年代,蒸汽机才完全超过水车和风车成为最重要的动力源,并在世界范围内获得广泛运用。如果追溯蒸汽机主要原理的发现,这一过程则要接近200年[19]。人工智能作为一个产业,同样经历了曲折漫长的历程。1958年,纽埃尔和西蒙就预言,计算机会在10年内成为国际象棋世界冠军,这一天晚了近30年;1965年,西蒙又预言,20年内,“机器将能完成人能做到的一切工作”,但即使从人工智能起步已历时近70年时间,他的预言仍远未实现[20]。
人工智能产业化过程中的主导设计或领先技术路线也出现了数次反复。从人工智能的概念被提出到20世纪90年代,符号主义学派的专家系统是人工智能产业化的主流技术路线。20世纪60年代,人工智能用于解决实际问题的构想使费根鲍姆建立了专家系统,这种内部存储着某领域大量专家水平的知识与经验的专家系统,能够利用人类专家的知识和经验进行推理和判断,模拟人类专家的决策过程。20世纪80—90年代,专家系统从知识搜索转向数据统计建模,基于复杂规则的专家系统也可以在计算机上运行,专家系统第一次商业化落地。然而,专家系统自身存在的短板制约了人工智能大规模产业化的推进,如复杂系统中的规则数量非常庞大并且会不断增加,追踪所有的规则变得十分困难[18]。
受到当时的理论模型、生物原型和技术条件的限制,连接主义因为不足以解决现实问题而在20世纪70年代后期至80年代初处于低潮。20世纪80年代,鲁梅尔哈特推广了反向传播法,使多层感知机有所突破,连接主义运动开始。在医学及神经科学发展的推动下,人类对自身大脑运作方式的探索愈渐深入,人工智能科学家在此基础上设计出类神经网络的算法,并利用神经细胞传递资讯的方式赋予机器学习的能力。神经网络最重要的改进出现在世纪之交的2000年,两位俄罗斯科学家万普尼克和切沃内基斯提出了统计学习理论,并进一步提出了支持向量机模型。2006年,辛顿发表深度信念网络论文。至此,沿着连接主义路线推进人工智能产业化的理论障碍被清除。
然而,人工智能的产业化仍然不是一帆风顺的。就目前而言,人工智能在视觉识别、语音识别领域的实用性较强,但是在制造业、医疗等一些更加复杂化、系统化且对精度、稳定性要求更高的领域,人工智能的产业化仍未打破技术、制度、政策等方面的瓶颈。如美国通用电气在2012年底率先提出“工业互联网”的概念[21],仅2016年就花费了四十多亿美元来开发数据分析和机器学习软件,其数字部门大规模宣扬新的数字工业时代已到来,但工业互联网的推进难尽人意。通用电气110年来被首次从道琼斯工业平均指数中剔除,标普信用评级从A下调至BBB+,股价从2016年的高点跌去2 000多亿美元,在出售包含工业互联网明星产品——工业互联网平台Predix的GE Digital部门未果的情况下,通用电气数字部门被重组为一家专注于工业物联网软件的独立运营公司。作为人工智能先驱的IBM在人工智能产业化应用方面也遭遇了困境,2016年6月,IBM与MD安德森癌症中心签署合同将沃森人工智能系统应用于癌症治疗,但是在投入了6 200万美元后,MD安德森癌症中心于2018年取消了与沃森的合作项目,原因是沃森似乎并没有达到当初IBM所承诺的效果。无论是通用电气还是IBM人工智能产业化的困境都显示出技术演进特别是产业化的曲折历程。通用电气Predix的折戟的根源在于未给制造企业创造实际的价值,其背后的原因则源于制造企业数字化改造的高投入、工业设备千差万别带来的高昂成本、接口和通信标准不统一造成的数据打通困难、工业隐性知识显性化存在的诸多阻碍等;而IBM沃森遭弃用在于训练数据的缺乏而导致需要使用假想患者的数据进行训练,然而用该方式训练后的沃森,在实际应用时开出了不合适甚至危险的方案。两家著名公司的失败表明,人工智能的产业化还有很长的路要走。
此外,作为人工智能主流技术路线的深度学习方法属于“大数据、小任务”(Big Data for Small Task)的范式,这种方法存在两个方面的不足:一是经过大数据训练的人工智能系统只能适应特定场景的任务,在其他领域则无所作为。如AlphaGo在围棋领域战无不胜,但让它参加在线游戏比赛则必须重新设计代码和训练。二是现实中的场景并非都能提供大量的数据用于深度学习,这就需要小样本学习技术的发展以提高人工技术的适应性、扩大使用范围。
(二)互补技术与产业发展
随着生产力的发展,产品的复杂程度不断提高,社会分工不断深化。从产品的产业化角度来看,一方面,任何企业都不具备全产业链的知识和生产能力,因而需要形成相互分工、相互合作的关系,以使每个企业可以聚焦于最具核心能力与竞争优势的价值链或产业链环节。另一方面,由于产品的复杂程度高,不仅产品的生产过程需要依赖来自不同产业领域的仪器、设备、零部件、原材料和试剂等投入品,而且产品效能的发挥同样需要互补技术、产品的协同演进。可见,人工智能技术的成熟和产业化以及人工智能作用的发挥,都需要依赖互补技术的提升和互补产品的发展。
1.人工智能的产业化得益于数据的丰富和算力的增强
当前主流的人工智能技术路线是深度学习,而深度学习技术的商业化则需要互补技术发展的支撑。在辛顿2006年发表开拓性论文的十年之后,人工智能的商业应用才迎来爆发的原因也正在于此。深度学习建立在海量的数据以及对海量数据分析处理的基础之上。将传统的资料、信息数字化的代价十分高昂,而且对海量数据进行计算需要强大的运算能力支撑。在很长的一段时期内,既无低成本获得的海量数据,也没有足够强大且成本低廉的计算能力,因此,深度学习理论在提出之后并没有表现出如今这样强大的应用能力。
基于深度学习的人工智能的商业化建立在计算机处理能力和运算速度的提高以及海量数据的可获得性的基础之上。一方面,算力的进步与算法的发展相辅相成。按照所谓的摩尔定律,计算机处理能力每18个月翻一番,这就意味着计算机的算力将呈指数级增长。在传统的计算机结构中,以擅长逻辑控制和通用类型数据运算的CPU为计算核心,GPU主要用于图形处理。后来发现,GPU在浮点运算、并行计算方面的优势可以很好地匹配大数据分析的需求,因而在2012年后被广泛应用于人工智能领域。随着GPU在人工智能领域的使用、专用人工智能芯片的开发以及云计算的发展,计算机处理能力和运算速度获得大幅度提高,支持多层神经网络的巨大计算量得以实现。2012—2018年,人工智能训练任务所需的算力呈指数级增长,目前每3.5个月算力增长一倍[22]。另一方面,互联网技术的发展和广泛使用产生了海量的低成本数据。电子商务、社交网络、共享经济、新闻推荐和视频等互联网商业模式的发展产生大量的数字化数据,其无需经过复杂的处理就可以作为人工智能学习的素材;而“互联网+”的推动和互联网与传统行业的深度融合,也使传统行业的数字化程度不断提高,使原本生产经营过程中不可获取或未数字化的数据持续产生、汇集,成为深度学习的素材和本产业领域智能化赋能的基础。因此,深度学习通过构建多层的机器学习模型,进行大量数据素材的训练,从中高效地寻找新规律或新知识,并发掘数据中更关键的特征,进而提升分类和预测的精度。
上一页 [1] [2] [3] [4] [5] 下一页