智海观察

戴琼海院士:人工智能:算法 · 算力 · 交互

作者简介

 

 

戴琼海:中国人工智能学会理事长、国务院参事、中国工程院院士
清华大学信息学院院长、教授、CAAI Fellow

 

 

近期,戴琼海院士以《人工智能:算法·算力·交互》为题,对人工智能发展面临的关键问题进行了深度剖析,提出从脑与认知科学角度推进人工智能技术的颠覆性突破,构造一个可以与环境和人类交互的“AI身体”的构思。指出早期图灵测试已无法适应当前人工智能的内涵与外延,如何建立新的人工智能测试体系也是在未来需要重点考虑的内容。

 

 

跨学科交叉是人工智能时代的典型标志
 

原始社会人们依靠石器工具来劳动,农耕时期人们所使用的工具有所升级,到工业革命出现了蒸汽机进一步提升了生产力,而到了电气革命时代更是极大提升了人类的生产效率。如今信息时代电子计算机的诞生延伸了我们的脑力,拓宽了我们的眼界和思想。马克思说过"各种经济时代的区别,不在于生产什么,而在于怎样生产、用什么劳动资料生产。劳动资料更能显示一个社会生产时代的具有决定意义的特征。"

 

信息时代出现了互联网络、电子计算机、通信网络、空间技术、生物工程和原子能技术等具有代表性的发明和创造,尤其是互联网络和电子计算机的诞生,拓展了人类自身和人与人之间交互的边界。人工智能时代的到来,人们的工作、生活更是发生了翻天覆地的变革。

 

跨学科交叉是人工智能时代的典型标志,潘云鹤院士曾提及认知视觉和认知表达都是典型的跨学科研究。人工智能技术海纳百川,如计算机视觉、自然语言理解、机器人和逻辑推理等,在医疗、电子、金融等行业都发挥了巨大作用。

 

人工智能时代:算力、算法、人与AI如何相处?

 

人工智能发展过程中一直受到算力的困扰。1956年 Rosenblatt 的感知机只包含了512个计算单元,只能做数据分类。Gordon Moore 后来提出的集成电路芯片上所集成的晶体管数量每18个月翻一番,为后来的几十年芯片技术的发展指明方向。直到1999年,NVIDIA 发布了GPU并行数据处理,使得人工智能向更加广阔的领域发展。

2012年,Alex 使用 AlexNet 进行 GPU加速,开启了深度网络应用的先河,谷歌AlphaGo拥有5000个GPU, 训练40天,就可以打遍天下无敌手,说明并行计算、专用芯片对人工智能具有重要的推动作用。

 

随着技术的发展,流媒体视频占全球互联网下行流量的58%,2019年8月国内互联网的终端数已经突破了20亿,这些数据都需要巨大的算力支撑。智能医疗、智能制造、无人驾驶,追求的更小、更快、更加智能。人工智能蓬勃的发展对算力的需求超过了别的方面,算力已然成为人工智能一个重要支撑。

 
算力的提升速度不再遵循摩尔定律,人工智能走入了交叉时代
 

从第一台计算机出现到后来的几十年,芯片算力基本符合摩尔定律。但随时间的推移,芯片上晶体管的密度增长已经不再遵循摩尔定律, 芯片算力的增长速度已无法满足人工智能技术的发展需要。尽管国际科技巨头都开始发力,如谷歌的 TPU 和中国的地平线、寒武纪均在设计神经网络专用芯片来提升算力。但这些芯片都是专用的,无法满足通用人工智能的发展需要。

 

英特尔、谷歌在处理特定任务时发现量子计算速度远高于现在的计算机。随着有效量子比特的数量不断增加,两者都希望成为量子计算领域的霸主。但现实中,仍然有诸多问题尚未解决。比如如何长时间保持足够的量子比特的相干性,同时在这个时间内做出足够的超高精度量子的逻辑计算。未来的一段时间五年前用量子计算提升算力无法实现。人们提出存算一体的架构,希望突破存储墙的限制提升算力。

 

人工智能正在走入交叉时代,不仅向物理要算力,还要向脑科学要算力,如类脑计划,希望通过模拟脑科学里的机理提升算力。此外,还要向光电计算要算力,以及向存算一体、光电+ 要算力。

 

 

构建光电计算的架构成为解决算力重要研究方向
 

功耗是提升算力要考虑的一个重要问题。光电计算能给这方面带来巨大的福利进行神经网络计算的构架,从理论上推算,能使算力提升3个数量级,功耗下降6个数量级。

 

光电计算并非一个新东西,和人工智能一样,也是20世纪50年代诞生的。只是计算机半导体、硅基的芯片已满足需求, 研究者便渐渐减少了在这方面的研究。

 

1990年,贝尔实验室用砷化钾做了一个光学开关来控制计算机的原型,由于当时对算力的需求较小,因此芯片就可以解决。随着人工智能对芯片的极致要求,从2017-2019年很多机构对光电计算的研究做出了重要贡献,如三维受控的衍射的传播时间,以及全并行的光速计算。通过研究能够很快识别一个文字,因为光是不需要电的,,所以这种光计算不需要耗电就可以做到以可控高维的光场传播,从而实现高速高效并行的计算。因此构建光电计算的架构,成为现在解决算力的一个重要研究方向。

 
光电计算使无人系统更快、更小、更智能
 

光学作为新的计算途径,它带来的最重要的变革:一是范式变革;二是算力提升;三是功耗下降。

 

正因其诸多优点使得国内外很多研究机构都开展了相关研究。目前国际上做出的贡献有三个:1)麻省理工学院做的干涉神经网络架构;2)明斯特大学和剑桥大学是留相片材料,做脉冲的架构;3)清华大学用衍射神经网络做架构。三种不同的方案都各有优势,也各有不足。因此,在未来算力平衡上可以做出一番成绩。

 

试想,光电计算的算力能提供3个数量级,如超小型的智能5G、智能机器人、微型修理机器人,尤其是我们现在研究的自动驾驶,光电智能驾驶会推动这个方面的发展。

 

所以,光电计算使无人系统更快、更小、更智能。目前这个方向也引起了国际学术界和工业界的广泛兴趣,已经有很多机构在这方面开展研究,是重点关注方向。

 
光电智能芯片对新基建里的支撑作用
 

光电智能芯片最重要的特点是什么?第一是它们对庞大的计算中心小型化,现在的计算中心要消耗很大的电能,若使用光电计算则可节省许多电能。第二,可纳秒级目标感知与识别。纳秒级的感知目标与识别非常快,如现在使用相机拍摄要转成电然后再计算。若它直接光进到相机就计算了,那么速度就变得非常快。因此光电智能芯片对新基建里的工业互联网、计算机视觉、大数据分析和光通讯都有重要的支撑作用。这是对算力的一个探讨、一个思路。

 

 

从脑科学到人工智能,是研究人工智能新算法的一条道路
 

人工智能最重要的是算法,现有人工智能仅实现了简单的初级视觉感知功能,仍有很多无人区的工作有待解决。在初级视觉感知信息处理与高级认知智能过程中,性能远不如人脑,人脑具有物理学习和数据的抽象能力。

 

有学者认为深度学习存在极大的危机,BP算法有很大局限性,需推倒重来,需再次从大脑的认知机理模型中寻找灵感。困难的问题是易解的,往往简单的问题是难解的。Hinton 的 demo 说明深度网络现在有危机,因此必须借鉴神经系统的多模数据表示、变换和学习规律及反馈方式,认知计算将推动人工智能的变革。

 

众所周知,1969年BP算法的雏形是从控制里面来的,是从最优控制理论中产生、采集的。直到1989年卷积神经网络诞生,认知和神经科学家首次将 BP 算法引入到多重神经网络,构建了认知计算模型,再到2015年的计算模型。可以看出 BP 算法是深度学习使用最为广泛的,但仍存在很多问题。

 

从1958年开始研究的启发卷积神经网络来看,1981年的诺贝尔奖得主发现人的视觉是分层的,有高层的视觉分层,也发现视觉系统卷积的特性。于是1980年日本学者提到简单复杂的细胞概念,提出了新的认知机理。David Marr 认为,人对视觉信息的表征和处理的计算研究得出了一个重要的结论,即视觉和感知效应的关系。2007年 Tomaso Poggio 提出了 H-MAX 模型。2012年Alex的贡献开启了人工智能的黄金时代,得到了广泛的应用。研究学者普遍都在研究算法,那么算法怎么来?通过历史分析,就能预测未来。

 

关于脑科学家神经的分析,通过神经的分析就是启发类脑计算。从脑科学能不能到人工智能做类脑方面的研究,中国在这方面的研究应该在国际上处于并跑的阶段,施路平教授与吴华强教授的团队在此方面都研究取得了重要突破。

 

认知计算是沟通脑科学和人工智能的桥梁。如何利用脑机器启发人工智能新理论,实际上是作为新一代人工智能发展的一个重要途径。成年人的大脑细胞有 860~1000亿神经元,而电信号在发生作用时整个功耗非常低,约10~23瓦之间。若正在刻苦完成一件事情时,人的最大功耗也在25瓦以内;若处于迷迷糊糊状态,功耗最低才10瓦左右。但人工智能计算机的功耗非常大。认知计算是沟通脑科学和人工智能的桥梁。认知科学一个是多模态的回路观测,要观测脑科学里的东西。视觉、听觉、语言,还有触觉等都是多层次的认知模型和脑科学的信息。通过建立模型形成的是认知科学,从脑科学通过认知科学的研究到达人工智能,这是一条研究人工智能新算法的新道路。

 

通过研究大脑计算范式,构建认知计算新模型与新方法,从而建立从人的思维到机器思维的桥梁是启发新的人工智能理论与算法的重要途径。

  

人工智能是赋能人类,而不是成为人类,更不是取代人类。50年前图灵说过:“人工智能的发展不是把人变为机器,也不是把机器变成人,而是研究、开发用于模拟、延伸和扩展人类智慧能力的理论、方法、技术及应用系统,从而解决复杂问题的技术科学并服务于人类”。因此,人工智能与人类和谐发展,需要考虑人工智能与人类之间协同安全、隐私和公平的问题。最终实现以人为本、服务于人的目标。

 

以人为本、服务于人类的四个最重要要去探索,不可回避的问题是:伦理、隐私、协同和安全。

 

人和机器AI要有交互,人和自然界也要交互。极限交互是指在危险的场景,希望通过AI和AI交互,AI和场景交互,人类和AI交互,即看不见的、看不清的、听不见的、触摸不到的称之极限交互。极限交互的特点是实现颠覆性用户体验,提高人类认知和改造世界的能力。

  

AI的外在形态是AI专用接口,如汽车、多途机器人、人形机器人,手术机器人、空中机器人,包括微软小冰,虚拟主播、自动客服,以及手机、电脑等AI的通用接口。在交互中,最重要特征是什么?如通过虚拟现实的一个接口进行交互。虚拟或增强现实、自然交互技术,就是未来信息获取与交互的一种方式,它能拓展人类的能力改变产品形态和服务模式,也能推动认知、智能与文化艺术的变革,促进未来人与物融合社会的发展。

 

目前很多机构都在开发线上虚拟线下的沉浸式AI交互,相当于一种极限环境。带来更好的用户体验。在教学中,可以实现全息智能教学。比如智能精准的推荐、线上泛在接入、真人全息授课、沉浸交互课件。

 

根据今年的AI研究发展,AR眼镜最轻可以达到50克,未来眼镜交互是一个重要趋势。AI驱动混合现实,虚拟线下的一个重要区域,赋能教学、生产、设计和交流,包括工业设计都可在此开展,这是未来AI交互的一种重要的工具,也是人和AI之间交互的一个重要的途径。

 

未来已来,未来实际上脑机接口、人机融合、人机“共生永存”,包括意识存储的概念,能不能永远存在机器人身上或者存储到一个地方。

 

现在脑机接口发展非常快,很多脑疾病,比如阿尔茨海默症、癫痫病。若找到了这样的病理特征时,有两种再生方法。如果知道神经元的种类,可以用其他的神经元修复这种生物的修复方法,修复这些神经元;还有一种用超材料代替这些神经元的活跃程度。若能成功,可使脑子保持高度清晰,人类寿命延长50年是一个很正常的事情。

 

未来,图灵测试也是人工智能发展的一个重要方向

 

智能驱动未来,未来,我们有更聪明的“大脑”、更灵巧的“手”、更明亮的“眼睛”、更灵敏的“耳朵”。智能光电芯片、知识驱动、数据驱动、认知驱动,从2016年开始规划到2066年,人工智能逐渐达到人类水平,机器能完成人类全部的任务,是一个愿景。这个愿景带有预测性质的,也带有一定的基础讨论。

 

关于认知智能。以前有过图灵测试,主要测试某个机器是否能表现出与人等价或无法区分的智能。而图灵的测试一直在不断发展。从1950年提出图灵测试,1986年早期自然语言处理计算机也在期待测试。一直到2014年郭院士的“ Eugene Goostman”程序首次“通过”了图灵测试。2015年人工智能终于能像人类一样学习,并通过了图灵测试。但这些测试情况有什么有待改进的地方?

 

比如一些专家的研究,测试机器常识推理的能力,测试神经网络抽象推理的能力,针对通用人工智能(AGI)测试。如家庭健康护理(ECW)的能力。这些都是人工智能测试的新模式且层出不穷。图灵测试中认知测试和功能识别、认知决策和逻辑推理几方面的问题是目前要研究的重要问题。

 

人工智能技术已成为推动全球经济发展的核心驱动力,成为新基建重要板块之一,已上升为国家战略非常重要,潘云鹤院士倡导的人工智能2.0得到国家的高度重视,2020年中国人工智能市场的规模增速远超全球市场规模的增速水平,尤其在智能安防、医疗、金融和教育等领域凸显成绩。

 

未来要进一步发展人工智能在算法、算力、极限环境下的交互三个方面的问题,更逼近本源的认知计算理论与方法,数量级性能提升的新型计算范式与芯片架构,更高的工作效率、生活质量和安全保障,以及包括多维度、多角度和深层次的认知测试。 

 

 

「本文根据戴琼海院士在2020年中国人工智能大会上发表的《人工智能:算法·算力·交互》演讲报告速记内容整理编辑,仅用作学术交流。原文刊于《中国人工智能学会通讯2020年第10卷第8期》」

 

来源:智海科教