人工智能的发展建立于AI对人类感知的模仿?

网友投稿 361 2023-11-05


1、类脑智能在AI脑内开了个“意识小剧场”,深度学习“不是炼金术” AI还能学什么?AI开源框架国产化,百度、旷视相对抗谷歌、脸书。

人工智能的发展建立于AI对人类感知的模仿?

2、记者试图探寻AI的下一个5年计划。

类脑智能:在AI脑内开个“意识小剧场”

类脑智能,被誉为人工智能的终极目标。人工智能在过去十年中基本实现了感知能力,但却无法提高认知能力(推理、可解释等)。因此,从认知心理学、脑科学等领域汲取灵感,推动感知智能向认知智能演进是人工智能下个十年的重点。

意识图灵机:让机器感受疼痛愉悦

当前,我们仍处于弱人工智能阶段,尚不能制造出真正推理和解决问题的智能机器,机器也还没有自主意识。那么,人工智能要怎样产生意识?

人的大脑是如何产生疼痛、愉悦等各种感受的?有没有办法让机器模拟甚至体验这些感觉?

第三十届(1995年)图灵奖得主Manuel Blum与前美国卡内基梅隆大学计算机科学系杰出教授Lenore Blum是夫妻俩,他们试图通过数学模型来理解意识。受到认知神经科学家Bernard Baars的“剧院模型”之启发,Blum夫妇提出了图灵机器的正式模型——意识图灵机(有意识的AI)。

短时记忆和长时记忆是认知科学里两个重要概念。在剧院模型中,意识相当于短时记忆“舞台”上所演绎的活动,坐在暗处的观众则代表长时记忆中的无意识处理器。在这个脑内小剧场里,演员和观众是怎样互动的呢?

Lenore举了一个例子,某天你在派对上见到一个人,可怎么都想不起她的名字,等半小时后回到家,那个名字才突然从脑海中蹦出来。也就是说,半小时后那个名字才出现在你的意识或短时记忆中。

这中间发生了什么?你可能回忆了两人第一次见面的情景,这个信息从短时记忆中广播出来,并传到大脑的各个长时记忆处理器上。其中一个处理器表示,她是做机器学习的。这个信息被传到意识中,再广播到各个处理器。接着又有一个处理器说,她的名字是T开头的,这个信息也被广播开来。于是半小时后,她的名字出现在了“舞台”上,然而舞台上的有意识自我对无意识自我在台下的工作是不知情的。

假如获得了胜利的是恐惧处理器,那么收到广播的语言处理器可能会激活喊叫机制,发出一声尖叫。由于一系列动态的下放,一些输出机制可能被激活。通过语言对恐惧的回应,两个长时记忆处理器之间产生了连接,不再像初始状态下那样只能通过短时记忆进行交流。

Lenore解释道:“这正是赫布理论提出的‘一起激发的神经元连在一起’,如果回应变多或者关联变强,就会产生更多的连接。这种连接允许原本经过短时记忆的有意识运算变得无意识,信息块可以在处理器之间传递,很多高负荷工作就是以这种形式进行的。”

让盲人有一天能看得见

虽然意识图灵机的研究者强调简洁性(simplicity),但是复旦大学类脑智能科学与技术研究院副院长林伟认为世界呈现出来的更多还是复杂性(complexity)。微观层面上,每一个生命个体都有相应的智能行为;宏观层面上,智能个体之间的互动会产生许多群体行为。而智能是怎么产生的?群体的智能行为又是怎样产生?

“在这个过程中,需要采集相关数据,进行相应的数据挖掘。在数据集里寻找形象的规律,甚至在这个阶段就直接可以到商业和工业中去检验结果。”林伟表示,除了挖掘大数据的规律,还需要结合模型去做模拟仿真,因为有了模型就可以去做进一步的预测研判。

好比在类脑人工智能中,首先要认识脑结构、解析脑机制,其后就是要模拟脑,将大脑中某些局部的功能在模型中表现出来,包括感知、认知、记忆、情感、情绪化表现等。这个模拟过程一定受到脑科学研究的启发,因为那些神经形态的基本结构实际上都可以为数学模型中最简单的动力学模型提供基本框架和思路。

“每个人的大脑都是有差别的,能替代的也只是一部分。从这个意义上来说,‘增强脑’可能更恰当。比如说某些病患有一些功能的丧失,帕金森、老年痴呆等。通过和生物医学工程的专家合作,可以把一些算法、控制器、芯片体系植入到相应的大脑。那样的话也许盲人也会有看得见的一天,类脑研究可以起到这样的作用。”林伟说道。

深度学习“不是炼金术” AI还能学什么?

AI正在日常生活中渗透。无论是刷脸进门、机器人扫地还是和智能音箱对话,这些应用均可归类于人工智能的语音和图像识别。的确,这一代人工智能的发展建立于AI对人类感知的模仿。这得益于人工智能背后的深度学习,通过神经网络层层分类信息。“只是现在AI还在弱智能阶段,要让机器解决问题,首先需要人工定义问题和机制,转化为数学模型,并通过数据训练模型。”在一位阿里系技术人员看来,如今的AI只能映射,还无法产生联想,机器具备真实推理能力仍是人工智能的发展局限。

深度学习需要依赖海量的数据,与此同时,这一代人工智能的应用带来了对隐私、数据安全的担忧。还有没有针对这两个困局的更好解决方法?今年WAIC 2020上,联邦学习、迁移学习是两大热词,AI算法的演进版,在很多领域已经落地,他们为什么能解决深度学习的困境?《IT时报》记者一路探寻。

联邦学习:隐秘的数据 公开的模型

你的人脸信息,5毛一份。这是日前新华社记者在网络黑市上发现的非法买卖。一时刷遍朋友圈。

当人们越来越依赖于刷脸支付,但如果这些生物信息被泄露给不法分子,加之你的身份证、银行卡信息也被暴露,大众难免担心信息泄露的后果。

A方收集数据,B方清洗数据,转移到C方建模训练,最终卖给D方使用,每个环节都有着数据泄露隐患。

颇有预见性的,这一届世界人工智能大会上,联邦学习被屡次提及,它最大的特征是数据信息不离开本地设备,所谓“数据不出域”,但可以加密上传训练模型,服务器端综合各自模型之后,再反馈给用户模型改进方案。

AI技术人员杨建国认为,如果将传统的AI深度学习看作是一场开卷考,那么联邦学习是AI的一场闭卷考,以利用“隐秘”数据为前提。

万向区块链研究院院长肖风曾在世界人工智能大会上分享,区块链技术的溯源特性能有效监控数据的使用权,一旦数据被泄露,信息将被记录。这暗示区块链技术在联邦学习中的可能。

那么,区块链技术是否已在AI领域使用?

一位温州某区块链企业CEO胡松(化名)告诉《IT时报》记者,目前区块链还没有在实际应用上与AI结合,仍在理论和概念阶段,“近期区块链行业比较沉默,老的故事还没有应用,新的突破性概念还未诞生。”

遗憾的是,在和多位采访对象沟通中,《IT时报》记者发现,受限于“看不到的数据”,多家AI企业并不愿应用联邦学习。

“联邦学习可以使用一般机器学习能使用的所有算法,但需要额外加一些技术来满足‘闭卷’的需求。”因此,杨建国认为,除了数据隐私安全,目前一般机器学习存在的缺陷,联邦学习无能为力。

沪上一位AI算法研究人员认为,联邦学习在训练模型时可能出现不收敛的问题,构建的模型或许并不是最优解。在实际运用中,联邦学习对AI企业在终端数据之间的通信和计算开销有一定要求。此外,联邦学习在面对隐私的攻击时可能存在安全漏洞,也无法较好控制学习时所使用的数据质量。这些均是联邦学习的缺陷。

不过,杨建国对此仍有期许,他看到联邦学习的研究和技术在不断扩展,这是积极的一面。

迁移学习:用小样本快速得出答案

“你认为哪种机器学习方式可能会成为未来的主流?”当《IT时报》记者向多位AI行业的技术人士抛出这一问题时,多位采访对象均将目光瞄向迁移学习。

韩林(化名)是一位医学影像视觉深度学习的AI技术人员,疫情期间他利用百度飞桨开发了能快速识别新冠病症的AI模型。

“飞桨上有100万分类的图像预训练模型,利用这个模型,调整不同的初始化权重,通过迁移学习,能够改善最终准确率。”在韩林看来,对开发者而言,迁移学习省去了从头开始训练的时间。

新冠疫情下,各大医院紧急投入“AI阅片”,在上海计算机软件技术开发中心人工智能技术研究应用与测评团队负责人陈敏刚看来,正是通过将新冠肺炎病人的CT加入到经过大量训练的病毒性肺炎CT影像模型,经过模型精调得出的成果。这个过程,便是迁移学习。

“当前针对小样本的深度学习,主要依靠迁移学习的方法。”陈敏说。

微众银行首席人工智能官杨强曾在一次公开演讲中表示,在云端用户群中,每台手机其实是一个用户,用户和特征没有重叠性,可以在保证隐私安全的条件下进行迁移学习。

但迁移学习并不是万能的。韩林告诉《IT时报》记者,如果没有一个和开发者所需相近的模型,开发者依然要面临从零开始做模型训练的困境。

“能有一套针对小数据样本的准确算法一直是行业中的大难题。”一位某互联网巨头公司的AI技术人员直言。“围绕数据量不足的情况”,是杨建国认为人工智能未来发展主攻方向。

对抗学习:为AI设置“陷阱” 以假乱真

以子之矛,攻子之盾。

当大众惊叹于AI功能强大的同时,也常常被AI的误识别而震惊。一副带有色块的眼镜能骗过人工智能,一张带有色块的阿尔卑斯山图片能让AI误认为是一条大黄狗。

由于深度学习是黑箱算法,技术人员无法分析出为何AI技术走偏的原因。但韩林认为,这些问题很有价值。这便是对抗学习(GAN)。

所谓GAN,是指在训练过程中,生成网络G的目标是尽量生成真实的图片去欺骗判别网络D。而D的目标就是尽量把G生成的图片和真实的图片分别开来。这样,G和D动态博弈,彼此在对抗中训练能力。如果G骗过了D,那么就可以生成一张足以以假乱真的图片。

“如果知道有色块眼镜可以欺骗机器算法,技术人员可以通过调整解决问题。如今人脸识别对用户的姿势和光照有比较严格要求,为的是防止人脸面具欺骗系统的事件再次产生。”韩林说。

在韩林看来,将深度学习中的一些非关键应用转向关键应用,对抗问题将会越来越受到重视。“如果把视觉识别运用到无人驾驶汽车上,行人只要戴上一副眼镜便无法被系统识别,你认为厂商会不重视吗?”他反问道。

但这是否意味着一轮轮的技术鸿沟。AI是否能够解决道高一尺魔高一丈的困境?

“当前人工智能还是依赖于大数据和高算力,从弱智能时代到进一步发展,仍是一条漫长的路。”前述沪上AI算法技术人员总结道。

AI开源框架

百度、旷视想对抗谷歌、脸书

做AI项目,或许在很多人眼里,是一项仄长而复杂的工作,其实不然。实际操作中,开发者可以选择AI深度学习框架,加载可在框架上运用的模块,调整参数,如同搭建乐高一样做出想要的AI应用。框架,省去了开发者从零开始一行行写代码的前期工作准备。

这是AI深度学习框架的魅力。《IT时报》记者注意到,目前国外主流的深度学习框架有TensorFlow、PyTorch、Caffe等,而国内的百度飞桨(Paddle Paddle)和旷视天元也吸引了一群受众。

那么面对中外深度学习框架,众多开发者会如何选择?而国内框架又会如何吸引新的开发者入局?

开发者:向国内框架迁移

韩林(化名)是一名影像识别功能的开发者,新冠肺炎期间,他从医学网站上找到CT转成图片作为数据,并搭配参数进行模型训练。“一次3521张影像的模型训练,需要40-50分钟。”他说。

接触深度学习框架2年,韩林最终从TensorFlow转到飞桨。他认为,飞桨API比TensorFlow更简洁,调试组网代码也更方便。

“当时做了一个比较复杂的模型,用TensorFlow调整模型结构一个月没有实现收敛,但用飞桨一周就完成了。”这是他接触飞桨时的第一印象。

林芸(化名)从事的是文本处理技术工作,易用性强,是她选择飞桨文心的缘由。

上海聪链信息科技有限公司创始人丁强则是旷视天元框架的拥趸。在他看来,旷视在视觉识别领域的优势,使得天元更适用于该场景的开发。疫情期间,旷视在10天之内推出“明骥AI智能测温系统”,通过天元框架对算法模型进行专项训练与优化升级,精准定位到额头再快速测温,误差在±0.3℃以内。

上海埃瓦智能科技有限公司创始人王赟则考虑到3D视觉芯片的推广应用,选择了腾讯系的深度学习框架Angel。

AI开发者王剑(化名)向《IT时报》记者给出他选择国内深度学习框架的考量:社区规模。“社区强大,框架会越来越好,因为用的人多,如果论文作者提供的代码都是国内某个框架的话,这个框架会有更多人去完善升级。”他说。

百度方面透露,截至目前,飞桨平台已经凝聚194万开发者,8.4万的企业在平台上创建了超过23.3万个模型。在主流开源社区整体star数超过4万,核心框架的star数超过1.1万。天元则未披露开源社区用户数。

在领规科技CEO安康看来,国内外深度学习框架每家各有不同,主要还是看开发者的产品和业务属性,最终通过调整开源社区的模板参数实现应用。

一位在中小型智能硬件类企业工作的王婷(化名)告诉《IT时报》记者,目前公司正在使用Caffe框架。不过,未来可能会考虑使用华为MindSpore,因为公司项目正在使用海思芯片做研发。

尽管有开发者反映,因国内深度学习框架发展时间较短,可能出现部分功能不支持、开发者基数不足导致社区无法马上解决所需解决问题等情况,但不可否认,正有一群开发者们向国产深度学习框架靠拢。

选ARM低功耗

2020年世界人工智能大会上,旷视介绍了其深度学习框架天元MegEngine的Beta版本,天元重点增加了模型量化与支持ARM处理器两个功能。

人工智能深度学习离不开海量数据和算力,大模型在带来精度提升的同时,也对计算资源消耗提出更多要求。这导致它们无法部署在很多非云端的计算设备上(比如智能手机),因此有必要通过模型量化。这些轻量化模型,使它们能够满足小型计算平台的要求。目前,Tensorflow、PyTorch、飞桨等框架均实现了量化功能。MegEngine自然不能落后。

“由32位浮点转至int8推理,可实现3倍左右的推理加速,减小模型75%的尺寸,减少存储空间、内存耗用和设备功耗。”旷视研究院AI系统高级技术总监徐欣然介绍。

端侧学习是深度学习框架的新趋势。“端侧一般不会进行训练,只会推理。”上海计算机软件技术开发中心人工智能技术研究应用与测评团队负责人陈敏刚告诉记者,在设备端推理,没有网络时延,不需要海量服务器和带宽资源,也不需要将数据上传云端,保护了用户隐私。

天元Beta版本添加了对广泛用于手机和终端电子设备的ARM平台处理器的支持,并推出了推理优化工具教程,还与面向AIoT的框架小米Mace和嵌入式边缘计算框架Tengine展开了合作。

百度深度学习技术平台部高级总监马艳军告诉《IT时报》记者,目前包括英特尔、英伟达、华为、ARM等诸多芯片厂商都支持飞桨,并开展合作。这意味着ARM平台处理下,低能耗的可能。

不过,值得一提的是,功耗似乎是AI在边缘侧、云端的枷锁,大大限制了算力。据《IT时报》记者了解,目前数据中心的一个机柜功耗限制在6000瓦-8000瓦,而一台性能强劲的GPU服务器也要四五千瓦。

       责任编辑:pj

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:对中国制造2025的认识_中国制造2025战略规划
下一篇:我国制造业和互联网的有机结合的目标已日趋明晰
相关文章

 发表评论

暂时没有评论,来抢沙发吧~