我的账户
铂悦新闻网

自媒体资讯干货

亲爱的游客,欢迎!

已有账号,请

立即登录

如尚未注册?

加入我们
  • 客服电话
    点击联系客服

    在线时间:8:00-16:00

    客服电话

    400-000-0000

    电子邮件

    xjubao@163.com
  • APP下载

    铂悦新闻网APP

    随时随地掌握行业动态

  • 官方微信

    扫描二维码

    关注铂悦新闻网公众号

铂悦新闻网 网站首页 资讯列表 资讯内容

依图科技CTO颜水成:算法即芯片

2021-03-13 发布于 铂悦新闻网
怎么发财

原标题:依图科技CTO颜水成:算法即芯片 | CCF-GAIR 2020

2020 年 8 月 7 日,第五届全球人工智能与呆板人峰会(CCF-GAIR 2020)于深圳正式拉开帷幕。

CCF-GAIR 2020 峰会由中国计算机学会(CCF)主理,香港中文大学(深圳)、雷锋网联合承办,鹏城实验室、深圳市人工智能与呆板人研究院协办。

从 2016 年的学产联合,2017 年的产业落地,2018 年的垂直细分,2019 年的人工智能 40 周年,峰会一直致力于打造海内人工智能和呆板人领域范围最大、规格最高、跨界最广的学术、工业和投资平台。

8 月 7 日下战书,依图科技 CTO 颜水成为人工智能前沿专场做了题为《芯智能,新基建》的主题演讲。

颜水成从新基建的产业大范围应用出发,起首探讨了学术界和工业界在人工智能探索方面的差别;以红烧狮子头作比喻,认为学术界寻求算法的可复制性、新颖性和公平性,而工业界的终极面向对象是客户,而客户是并不体贴历程的。

以是,颜水成认为,工业界要想让人工智能走向落地,一个非常紧张的点是要让人工智能的成本降低,让用户用得起;这时候就需要把算法的效能和芯片的效能,通过协同开发的方式去形成人工智能的解决方案,而不是纯粹的算法——这种解决方案称之为芯智能。

值得一提的是,颜水成在演讲中也谈到了 "算法即芯片" 的理念,他表示:

要想打造一款有竞争力的芯片,要清晰明白这个芯片典型的使用场景,它的主要算法以及这些算法在未来几年里可能的发展趋势,然后根据这些信息再去对芯片架构举行优化,以及对工具链做相应的优化,末了实现它们相互的优化,但同时也要保障芯片和算法可以或许分层解耦。

以下是颜水成大会现场全部演讲内容,雷锋网(公众号:雷锋网)作了不改变原意的整理及编辑:

颜水成:今天想跟各人分享依图在人工智能解决方案和人工智能的基础设施维度的一些观点和进展。

人工智能在学术界和工业界的探索之差

本年新基建被提出来,在新基建的观点内里,一共界说了 7 个焦点领域,其中有 4 个领域都跟人工智能和芯片有密切的接洽,如果仔细分析这四个偏向,就会发明其跟产业大范围的应用是非常相干的,但是当我们去探索人工智能的时候,在学术界和工业界的差别是非常巨大的。

下面我想用一个类似“红烧狮子头”如许的比喻来说明在工业界和学术界研究人工智能本质的差别。我们暂且从深度学习的角度出发,把红烧狮子头当做是学术界或者工业界训练出来的终极的模子,在学术界,我们要得到如许一个模子或者写一篇论文,一般我们会说“请厨师在这个厨房用这些食材,劈面给我做一个红烧狮子头”为什么是如许呢?由于在学术界评判的对象是行业的专家,我们寻求算法的可复制性,寻求它的新颖性、公平性。公平性就意味着你要用同样的数据,要用同样的算力来做事情。新颖性就是这个厨师在做的历程中有什么新颖的地方,如果新颖的话,我就会以为这个事情非常好。

但是工业界不是如许的,我们的评判对象是终极的客户,它的场景就类似于我就要一个红烧狮子头,请给我上来。我们的终极客户并不会体贴我们到底是用什么样的食材做的,用了什么样的制作工具,以及到底是谁烹调的,我们都不管,他体贴的就是末了他的这个红烧狮子头的味道是什么样子的。

正是由于这些差别,有许多的学术界的教授到工业界并不能很好地顺应这种变化。以是在工业界内里当我们去研究人工智能的时候,一个非常优秀的人工智能的模子,它的精度和速率在某种意义上已经可以开始被解耦。

在工业界如果要想打造一个非常不错的人工智能的模子,一般有两种方式,一种是数据和迭代的执行力,一种是在算法上的创新。

如果我们要提升一个模子的精度,在当前这个大配景,也就是许多算法已经被开源的情况下,从算法角度能提升的精度和用大数据能提升的精度相比,每每大数据能提升的要大非常多。

但是如果我们想从速率的角度来提升,这个时候纯粹靠速率和执行力,它的价值就相对来说会小许多,算法的价值就会变得非常大。

也就是说在工业界,在算法已经给你的情况下,你从数据的角度能快速提升精度,固然是对速率的提升相对有限。

但是从算法创新的角度,可以把这个速率提升得非常多,但是精度的提升是非常弱的。如果我们要想让人工智能落地的话,起首是要让用户用得起人工智能,同时,需要把算法的效能和芯片的效能,通过协同开发的方式形成人工智能的解决方案,而不是纯粹的算法,我们把这种解决方案叫做芯智能,而这也是依图在已往这几年作为服务于新基建的焦点和基本。

那么,为什么要做芯片和算法的协同开发呢?下面我们从三个维度的关系来做一个分析,一是算法模子的效能,二是芯片计算的效能,三是算法模子效能和芯片计算效能归并之后能分析的数据的范围。

如果我们只是一个算法开发者,当一款算法开发出来之后,把它用在详细的芯片上,临时认为它们能处置惩罚的速率范围就是它们的线段交织的部门,当我们用更高效能的芯片,也就是说我们会用更好制程的芯片提升它的效能,我们能处置惩罚的数据的范围会不停提升。但是由于算法和芯片两个是分开的,以是它只能起到一个线性毗连的作用。

假设我是一个芯片开发者,我们要解决一个详细场景的应用,好比说都会大脑,当我们用差别的模子,随着模子的效能提升,我们可以或许让这个分析的范围逐步的提升。但是如果我们协同开发,它就完全不一样了,它会带来一个分外的增量,它不再只是说连线上能处置惩罚的数据的范围,协同开发会带来一个分外的增量,这个增量会极大地提升终极解决方案的效能,从而让我们提供的解决方案更具焦点竞争力。

详细来说就是“算法即芯片”的理念,你要想在当前芯片非常多的配景下,打造一款有竞争力的芯片,你要清晰明白这个芯片典型的使用场景,它有哪些主要的算法,以及这些算法在接下来几年内里可能的发展趋势,然后根据这些信息再去对你的芯片架构举行优化,以及工具链做相应的优化,末了实现它们相互的优化,但要保障芯片和算法可以或许分层解耦。

依图做的两个事情

接下来跟各人分享依图在已往这段时间内里在高效能的算法和高效能的芯片内里做的一些事情。

在高效能算法内里分享两个,第一个事情是想跟 bottleneck structure  (音)做一个正名,它也可以用来设计低资源、低功耗的深度学习的模子,自从 MobileNetV2 被提出来之后,Inverted Residual Block(IRB) 一直被用来设计全部低资源、低功耗的深度学习的模子,但是 IRB 有一个特点,它的毗连的部门是在窄的部门,在这个部门有一个比力大的问题,当信息通道变少了以后,也就是说它窄了的话,从差别的随机数据样本获取的梯度差别就会很大,它会有很大的发抖,当差别数据样本内里产生的梯度互相抵牾的时候,优化的速率就会大大的降低。只管在 MobileNetV2 内里有实验表明: IRB 这种反漏斗模子的效率比 bottleneck structure 要好许多,但是并没有太仔细地讲它这个漏斗模子到底是怎么样设计的。

于是我们做了三组非常详细的实验,一组实验是在 IRB 的1×1卷积之后,第二个是在 3×3 这个宽的地方有 ReLU 的情况,第三种是把 ReLU 去掉去做直连。如果我们从 1×1 的卷积上直连,它的性能确确实实比 IRB 差不少,但是我们把它毗连的位次上升到 3×3 的卷积的时候,效率就提升了,一个经验上的解释是由于 1×1 卷积缺少 Special information,或者它的 Complex 比不上 3×3 卷积之后那么好。(这部门不太确定)

就第三种情况来看,当我们把这个 ReLU 去掉之后,它的模子就比 IRB 有更好的效能,从 72.3% 上升到  73.7%,从这些实验说明,bottleneck structure如果纯粹从结构上说,会增益网络梯度更新,增长收敛速率,进而用来设计低功耗的深度学习的模子是没有问题的。

我们到底如何设计一个非常通用的适合于低功耗的场景的模子呢?

我们直接从 bottleneck structure 开始肯定是比力难,由于 3×3 的卷积是放在非常窄的地方,Spatial context 思量得太少,于是我们把 3×3 卷积从它原来的位置放到了比力宽的位置,同时我们把它 copy 两份,如许纵然在 Depthwise 这种情况下,这个模子 Spatial context 还能思量得非常充实,于是我们就得到了右边如许一个 bottleneck structure,用来设计低功耗深度学习的模子。

但是另有一个问题,如果从宽的地方直连,一个现实的情况是在现在的算力平台上,Element wise 这种加法计算的效能是相对来说比力差的,同时跳跃链接可能会引起分外的内存访问,这对于计算效能的影响也是不可忽略的。以是减小跳跃链接的Tensor 尺度可以有用的提高硬件效率。这也是其时 IRB 提出的一个主要缘故原由,于是我们提出一种思想叫Partial connection,这恰好是我们在 2017 年打 ImageNet 竞赛内里提出的一个焦点的思想,这个实验的结果非常有意思,我们把它从原来百分之百的直连降成 50% 的直连,一般而言它的性能不但没有降落,还会上升,这也证实原来这种思想也是非常合适的,如许我们就得到了非常适合做低资源、低功耗、深度学习的模子设计的网络。我们把 MobileNetV2 的 IRB 的结构替换成新的 SG Block  的模子,把模子的性能从 72.3% 上升到 74%,加上一些其它的优化,可以上升到 77.3%,在这种情况下,说明我们用 bottleneck structure 已经跟当前险些是最好的低资源的深度学习模子可以媲美。

我们看一下这个模子的结构,是不是有足够的泛化的能力,于是把它放到了现在各人在深度思索的 NAS的思想内里,我们用 Darts 的算法,把原来的 search space 加入SG block,我们做了三组差别的实验,一种用原始的 search space,一种把 IRB放进去,SG Block在参数一定降低的情况下,还能把精度提升,而且Darts会自动地在它的网络内里大量选用 SG Block,也就是说 SG Block 是通用的,可以在许多场景使用,来提升低资源、低功耗、深度学习设计的网络。

第二个事情是希望去提升在 Language model 或者 Training model 的 Training Efficient。前面几位讲者先容的模子,哪怕最原始的模子,都会有一个显著的问题,跟通用的计算机视觉模子相比,它的参数要大许多,它差不多是4倍以上的参数、60 倍以上的计算量,如许带来的后果就是,除了大公司有能力去探索这个领域,在学校内里的研究者基本上没有太多的时机深入地对这些偏向举行探索,我以为这肯定不是最好的,于是我们思索,能不能有措施把基础的速率大幅提升。在 self-attention 使用的时候,我们发明一个比力大的问题,它这内里存在非常多的冗余的信息。

Attention 的机制是希望动态确定一个 token,跟其它的 token  之间的Dependency,self-attention是说全部的 token 产生对全部 token 的 Dependency,如果用 Fix convolution kernel 的话,这种  Dependency是固定的,如果用最简朴的Dynamic,就是从一个 token 去产生一个肯定的结果肯定是非常难的,由于语义上有许多歧义,好比说一个 Apple,它有可能是一个品牌,也可能是一个真实的水果,如果纯粹从一个 token  出发,它非常难把真正的Dependency 展示出来,我们用 一个token 和一个周围的token去预测 Local Dependency,于是就得到了新的这种结构。

实验表明,Fix convolution kernel肯定是最差的,我们这种效果有很好的提升。

另外一个维度,如果两者融合,它的效果肯定会更好。于是我们把它融合在一起,融合在一起之后会发明一个很有意思的事情,在有 Convolution 的情况下,在新的模子内里,self-attention模块就会转向真的去描画 Global Dependency。把它们真正地用更过细的实验去跑这些模子,你会发明正由于有这种 Global 和local模块 的加入,我们可以或许用 1/10 的训练的时间和 1/6 的参数,就能得到跟原来的模子得到一样的精度,这种机制就可以让更多的学者用更少的时间可以或许去探索 Language model 的训练,对于这个领域的发展来说,我以为也是非常紧张的。

在芯片这个维度,我们主要想分享几个我们的观点和最近的进展。

有许多人最近经常要回答的一个问题是,算法、算力和数据在工业界来说到底哪一个是最紧张的,毫无疑问,如果从科学的角度来说,肯定只有算法是最紧张的,没有它的不停地探索,我们不可能让整个领域往前推动。

但是从工业界来说,特别是在当前这个阶段,算力已经变得越来越紧张,一方面是由于智能密度的提升,更多的传感器和数据是要被处置惩罚。这时候需要的算力会大幅度增长。另外一个非常紧张的缘故原由是我们处在一个从感知智能向决议智能跃迁的阶段,我们会对感知智能的精度要求更高,我们要对解释对象的数目大幅的提升,以及对象之间的关系也会大幅的提升,这时候合在一起,对算力的要求会是一个指数级的增长。

另外一个维度,各人都探索过对模子的训练,它所需要的算力,已经不是原来的摩尔期间的那种速率,已经是每三个多月的时间就会翻一番。很显然,我们已经进入到一个算力霸权的期间,GPT-3 前面已经讲过,我们就看计算机视觉这个领域,最近一个偏向是自我训练,当我们想要得到一个非常有用的模子,已经需要用 2000  多块 TPU core 训练 6 天的时间,用网上的报价来算,需要 13 万美金才能训练一个模子,这对学术界来说也是一个非常巨大的挑战。

当我们把训练和代价放在一起思索的时候,需要思量如何大范围的降低算力的成本。在算力霸权的情况下,我们真的要回答 AI 的终局是什么,好比说自然语言能到达什么样的水平,这时候一定要打造自己的AI芯片。

前面提到依图 AI 芯片设计的理念是“算法即芯片”,在这里我想再用一个齿轮的图形给各人清晰理解“算法即芯片”的意义是什么。当我们确定了几个典型的应用场景,它足够大、足够消化这款芯片,我们就会知道有哪些算法,以及这些算法就可以或许拆解出它的算子出来,如果我们的 AI 芯片对于这些算子的频率做了一个分析,然后做了一个设计上的优化和设计之后,当一个算法跑起来,AI 芯片内里相应的算子就会被启动,当另外一部门算法跑起来,另外一部门算子就会被启动,如许它的算子的冗余和利用率,就会根据我们的场景和算法有一个相互的优化和协同的开发,它的效能肯定是最好的。

依图基于这种理念,在 2019 年 5 月份公布了第一款芯片叫求索芯片,这款芯片公布即商用,公布这款芯片的时候,直接就在现场拉了 200 路视频,把我们的 AI 芯片做成 AI 服务器,实时的做推理和分析。

这款芯片是由云端和边沿端视觉推理的芯片,它具备了 AI 的端到端的能力。详细来说,跟公布时市面最典型的解决方案相比,单路视频的功耗能降到 1/5 到 1/10,单元面积芯片也有相应的上风,如许对于大大地降低用户终极的购置和使用成本,这个价值是非常不错的。

基于依图的高效能 AI 的算法,各人可能理解的比力多的是依图的人脸辨认的算法,实在依图在 Re-ID 维度落地也非常不错,再加上依图的求索芯片在一起,我们打造 AI 的解决方案,相应的硬件包括云端的服务器和边沿盒子,分别应用于差别的场景,对应适才陈老师的说法,右边的放在边沿计算,左边的放在云端计算。

这些一体化的解决方案,已经用来解锁差别的场景,依图解锁场景有两种方式,一种方式是用精度的极限,好比说在福州和贵阳用刷脸乘地铁的方案,是由于人脸辨认的精度已经非常高,可以或许满足这种场景的应用。

另外一些场景要解锁是要解锁用户买得起,好比说都会级的智慧都会解决方案,在这种情况下,你可能要处置惩罚的视频路数是 10 万到 50 万路,只有当 AI 的芯片和 AI 算法柔和在一起,才可能打造出一个可用的解决方案。

末了做一个简短的总结,依图会在芯智能这条路上不停地深耕,不停地提升算法的效能和芯片的效能,通过协同开发的情势,我们期望为新基建提供更高效能的芯智能的解决方案。谢谢各人。

问答环节

主持人:谢谢颜水成的精彩演讲。下面是提问环节。

提问:你说算法和硬件你是联合思量的,如果说把硬件和算法解耦出来,让其它公司的算法跑进去,也能有这么高的效率吗?这是第一个问题。第二个问题,你适才讲 AI 芯片的设计,你是面向详细的应用场景的,你的 PPT 内里讲了有语音的,也有视觉的,是不是你们的芯片在语音和视觉方面都做了很好的优化?

颜水成:第一个问题,我们讲了要对差别场景常见的算法以及它未来的趋势做预测,意味着我们在预测的时候,实在已经把其它的算法厂商可能的算法的特点思量进来了,以是这款芯片是能包管算法和芯片是解耦的,也就是说这款芯片也可以或许让第三方厂家的算法在上面可以或许跑得不错。为了保障它跑得不错,由于我们有一些算子肯定是优化得比另外一些算子更好,以是一般的情况下,我们都会提供一个平台,让第三方的厂家可以根据这个平台去Re-Design,或者是用NAS的方式自动搜索它的模子的结构,以便更好地顺应芯片上的特点。

第二个问题,我们这款芯片最初的目的是用于云和边的视觉推理,但是由于我们有相应的算子的支持,实在依图也做语音辨认,而且做得也不错,落地的地方也不少,我们发明对我们的语音辨认的算法,对有些算子稍作调解,语音辨认的算法也是可以跑在这款芯片内里。

提问:这两个应用完全不一样,单比特的算力,视觉类和语音类差距比力大。

颜水成:是,以是我们定的目标是视觉类的,但是当语音的数据量并不是非常大的时候,固然我们也希望有,在这内里跑也是可以的。

提问:视觉类的算法界限也是很大的,场景也是许多的,是不是像检测、跟踪、语义支解,包括举动分析都可以?

颜水成:这是肯定的,由于你是用几个场景来界说这款芯片的,在几个场景下,你所用到的通例的算法肯定是一定要全部包罗的。

主持人:再次谢谢水成。

温馨提示:

大会现场票已罄,应观众强烈需求,现新增少许第三天 7 个专场通票,请于 8 月 8 号 23:00 前申请抢座:微信打开https://gair.leiphone.com/gair/free/s/5f28d5ae607bf  一键获取。

雷锋网原创文章,未经授权克制转载。详情见转载须知。

1

鲜花
1

握手

雷人

路过

鸡蛋
该文章已有0人参与评论

请发表评论

全部评论

相关阅读

  • 铂悦新闻网
    1970-01-01
  • 铂悦新闻网
    1970-01-01
  • 铂悦新闻网
    1970-01-01
  • 铂悦新闻网
    1970-01-01
  • 铂悦新闻网
    1970-01-01
  • 铂悦新闻网
    1970-01-01
铂悦新闻网

扫一扫二维码关注我们Get最新资讯

相关分类
热点推荐
关注我们
铂悦新闻网与您同行

客服电话:400-000-0000

客服邮箱:xjubao@163.com

周一至周五 9:00-18:00

铂悦新闻网 版权所有

Powered by 铂悦新闻网 X1.0@ 2015-2020