初创公司即融资上亿,这个“人造超级大脑”赛道为什么不是噱头?
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
这不前阵子, 马斯克扬言已将大脑上传到云端 ,并与虚拟版本进行交谈。 关于人造大脑这事儿,再次引发了热议: 人类是否能构建跟人脑一样的机器脑? 事实上这个问题,不光是理念,更已经是一种实践方向——归属于 类脑计算 的范畴。作为下一代人工智能的“种子选手”,它有望打破传统冯诺伊曼架构,引领新的计算变革。 不过发展至今,类脑计算始终呈现出正负两极的评价。 一面是业内如火如荼的融资进展。 据相关机构预测,2035年类脑计算的市场规模约200亿美元。 另一面则是脑机制研究不深入、没法复刻出相仿的神经网络等质疑。 到底是口耳相传的噱头,还是实打实的硬科技突破? 借着这一契机来盘一盘类脑计算到底什么来头?
什么是类脑计算与人工智能、机器学习类似,类脑计算目前没有明确的定义。以至于有关它的英文表达,也不止一种:
Brain-like Computing (仿脑计算) ;Brain-inspired Computing (脑启发计算) ;Neuromorphic Computing (神经形态计算) …… 不过字面拆解来看,类脑计算就是借鉴生物大脑的信息处理机制,以此诞生的一种新型计算形态。 与现有计算机相比,生物大脑 (以人脑代表) 有诸多优势。中科院院士、浙大校长吴朝辉曾撰文,主要有以下几点:
功耗低,仅20瓦左右;
容错性强,即便少部分神经元死亡,对整体功能影响不大;
并行处理信息;
神经网络可塑性好,可根据环境变化自主学习和进化。
而以神经科学为导向、以大脑为模仿对象的类脑计算,既保留计算机本身优势,又叠加了大脑处理机制的buff,比如低功耗、自主决策学习、并行处理等特点,自然成为引领新一代计算变革的种子选手。 近年来,人工智能,尤其是深度学习取得了令人瞩目的成果,在某些方面的表现甚至已经超越了人类。 但与自然智能相比,深度学习在效率、功耗以及通用性上仍有一定的局限性,远没有达到真正意义上的智能程度。 类脑计算另辟蹊径,于是就成为科学家们的研究重点。 但想要实现真正的类脑并非那么容易,即便上世纪末科学家们就已经开始探索。 清华大学集成电路学院何虎教授 将其形容为 珠峰 。谁也不清楚,哪一条路会攀上顶峰。 目前,类脑计算大体可分成三种探索方向: 模拟神经元结构和功能,简单来说就是仿真真实大脑机理,进而探索大脑内部的“运作模式”。 最新代表性进展来自北京智源人工智能研究院给出的“智能线虫”—— 天宝1.0 。 它完整模拟出秀丽隐杆线虫的神经系统——302个神经元,以及数千个连接,并为它构造了3D流体仿真环境。它可以在其中蠕动前行,并具备简单趋利避害的能力。 不过这种逆向工程——从生物体环境提取出抽象的数字模型,存在一定的局限性。 一言以蔽之,就是生物大脑本身的复杂度。 正如何虎教授所介绍:一方面,大脑环境过于复杂。抽象出的大脑模型,相当于只是简化版。另一方面,结构和功能之间“有壁”。即便成功构建了大脑结构,距离真正实现其功能还有很长的路要走。 这一路径目前还停留在学研阶段,在此就不进一步深入展开。 核心来看剩下两种路径:模拟神经网络以及开发新型电子设备。更通俗来讲,即软件算法层面,或硬件芯片层面上对大脑机制的模拟。 为了便于理解,将类脑计算与当下主流的深度学习作为对比。 先来看软件算法层面,生物神经元是以脉冲的形式将信息传递到下一个神经元层,放在类脑计算的研究中,即演化为 脉冲神经网络SNN 。 SNN,相较于DNN,更忠实地模拟大脑神经元和连接电路,其信息载体为脉冲序列,有空间域和时间域两个维度来传递信息,在中科院李国齐教授看来,SNN兼具生物合理性与计算高效性。 △ SNN与DNN(ANN)的区别,图源:智源社区《中科院李国齐:一文梳理类脑计算的前世今生》 进一步的, 北京理工大学杨旭博士 分享了类脑算法与传统算法模型之间的不同,核心有三个层面:
99科技网:http://www.99it.com.cn
