12月(yuè)16日至17日,由北京(jīng)未(wèi)来芯(xīn)片技(jì)术高精(jīng)尖(jiān)创新中心及(jí)清(qīng)华大学微电子学研究所联合主办(bàn)的“北京高(gāo)精尖(jiān)论坛(tán)暨2019未来芯片论坛”在清华大学举行,这次论坛(tán)上,类(lèi)脑计算成为多位权威专家热议的人工智能(néng)研(yán)究方(fāng)向。
人工智能浪潮(cháo)下(xià)的洋流(liú)
类脑计算又(yòu)被(bèi)称为神经(jīng)形态计(jì)算(suàn)(Neuromorphic Computing)。它不仅是学术会议关注的新热点,产业(yè)界也在探索之(zhī)中。
11月中(zhōng)旬,英特(tè)尔(ěr)官网(wǎng)宣布了一则消息:埃(āi)森哲、空中客(kè)车(chē)、通用电气和日立公司(sī)加入英特尔神经形态研究共同体(INRC),该共(gòng)同(tóng)体目前已拥有超过75个成员机构(gòu)。
如果说,当下人工智(zhì)能发展浪潮正波涛汹涌的(de)话,类脑计算就是浪潮之下(xià)的洋流。虽不太引人注意,未来却有可能改变人工智(zhì)能发展趋势。
原因之一是,深度学(xué)习(xí)虽在(zài)语音识别、图像识别、自然语言理解等领域(yù)取得很大突破,并被广泛应用,但它(tā)需(xū)要大量的算力支撑,功耗也很高。
“我们希望智能驾驶汽(qì)车的驾驶水平像司机(jī)一样,但现在显然还达(dá)不到(dào)。因为它(tā)对信息的(de)智能判(pàn)断(duàn)和分析不够,功耗也非(fēi)常高。”清华大(dà)学微纳电子系(xì)教授吴华强告(gào)诉科技日(rì)报记者,人工智能算法训(xùn)练中心在执行任务时动辄消耗电(diàn)量几万瓦甚至几十万瓦(wǎ),而人的(de)大脑(nǎo)耗(hào)能却仅相当于20瓦(wǎ)左右。
北京(jīng)大学计(jì)算机科学技术(shù)系教授黄铁军也举了一个(gè)生动的例子:市场(chǎng)上应用深度学习技(jì)术(shù)的(de)智能无人机已经十分灵巧,但从智能(néng)程度上看,却与一只苍蝇(yíng)或蜻蜓相差(chà)甚远,尽管(guǎn)体(tǐ)积和(hé)功耗比(bǐ)后者高(gāo)很多。
追求(qiú)模拟大脑的功(gōng)能
到底什么是类脑计算,它又(yòu)凭什么(me)赢(yíng)得学术界和产业界的宠爱?
“类脑计算从结构上追求设计出像生物神经(jīng)网络那样的系统,从功能上追求模拟大脑的功能,从性能(néng)上追求大幅度超越(yuè)生物大脑,也称神经形态计(jì)算。”黄铁军(jun1)接受科技日(rì)报记者(zhě)采访时说。
类脑计算试图模拟(nǐ)生物神经(jīng)网络的(de)结构和信息加工过程。它在软(ruǎn)件层(céng)面的尝试之一是脉冲神经网络(luò)(SNN)。
现在深度学习(xí)一般通过(guò)卷积(jī)神经网(wǎng)络(CNN)或(huò)递归神经网(wǎng)络(RNN)来实现。“CNN和RNN都属(shǔ)于人工(gōng)神经网(wǎng)络,其中的(de)人工神经元(yuán),至今仍在使用上世纪40年(nián)代(dài)时的模型。”黄铁军说,虽然现在(zài)设计出的人工神经网络越来越大,也(yě)越来越复杂,但从根本上讲,其神经元(yuán)模型没(méi)有太大改进。
另一方(fāng)面,在深度学习人工神经网络中,神经元之(zhī)间的连接被称为权值。它们是人工神(shén)经(jīng)网络的关键要(yào)素。
而在脉冲神(shén)经网(wǎng)络中(zhōng),神经元之间却是神(shén)经脉冲,信息(xī)的表达和(hé)处理通过(guò)神经脉(mò)冲发送来实现。就像我们的大脑中,有大量神经(jīng)脉冲在传(chuán)递和流转。
黄铁军告诉(sù)记者,由于神经脉冲在不停地传递和流(liú)转,脉冲神经网络在(zài)表(biǎo)达和处理信息时,比深度学习的时间性(xìng)更突出,更加(jiā)适合进行高效的(de)时空信息处理。
推广应(yīng)用(yòng)可能(néng)不需太久
也有人从硬件层面去(qù)实现类脑计算,比如神经形态芯片。
2019年7月,英(yīng)特尔发布消息称,其神经形态研究芯片Loihi执行专用任务的速(sù)度可比普通(tōng)CPU快1000倍(bèi),效率高(gāo)10000倍。
“在对信(xìn)息的编(biān)码、传输和处理方面(miàn),我们希望从大脑机制中获得(dé)启(qǐ)发,将(jiāng)这些想法(fǎ)应用到芯(xīn)片技术(shù)上,让芯(xīn)片的处理速度(dù)更快、水平更高、功(gōng)耗(hào)更低。”吴华强(qiáng)也(yě)在进行神经形态芯片相(xiàng)关研究,他告诉科技日(rì)报记者。
吴(wú)华强介(jiè)绍,在(zài)传(chuán)统的冯·诺依曼架构中,信息的处理和存储是分开的,而人的大脑(nǎo)在处理信息时,存储(chǔ)和处理是融为一(yī)体(tǐ)的。
“所以我们在尝(cháng)试研发(fā)存算一体化的芯片,希望通过避免芯片内部不停地搬运数据,来大幅提(tí)高芯片的能效比。”吴(wú)华强说,他的(de)团队现(xiàn)在也(yě)已研发出存(cún)算一体(tǐ)的样(yàng)品芯片(piàn)。
谈到类(lèi)脑(nǎo)计算的(de)进展(zhǎn),黄铁军告诉记(jì)者,目前类脑计算仍在摸索(suǒ)阶段,还缺乏典型的成功(gōng)应用。但商业公(gōng)司已经(jīng)嗅(xiù)到味道,相关技(jì)术获得规模性(xìng)应用(yòng)可能(néng)不需要(yào)太(tài)长(zhǎng)时(shí)间。
“现在的神经形态计算还比(bǐ)较初(chū)步(bù),它(tā)的发展水平跟现有主(zhǔ)流人工智能算法(fǎ)相比,还存在一定差距。”中(zhōng)科(kē)院自动(dòng)化所研(yán)究员张兆翔接受(shòu)科技日报记者采访时(shí)认(rèn)为(wéi),但作为一种新(xīn)的探(tàn)索方式,应该继(jì)续坚(jiān)持(chí),因为它可(kě)能就是未(wèi)来人(rén)工智能(néng)技术发展的重要(yào)突破口。