- 手机:
- 11503158010
- 电话:
- 400-123-4657
- 邮箱:
- admin@youweb.com
- 地址:
- 四川省巴中市南江县支大大楼976号
AI时代下,人人都在讲开源(OpenSource)。开源一词,可以说是近些年人工智能领域最热门的主题词之一。从概念上理解,开源全称为开放源代码,指企业/开发者/普通终端用户能够利用源代码在其基础上进行修改和学习。
这一概念从提出至今,已经历三十年的发展。从最初Linux开源操作系统,到Github平台社区的建立,再到Tenseflow等重量级框架的出现,国外早已形成一条完整的开源产业链;而反观国内,虽然起步较晚,但近些年也进入了一个加速发展的阶段。从技术层面来看,如今大热的大数据、区块链、人工智能、物联网领域,其中最重要、最受欢迎的技术都是开源的。
从企业层面来看,腾讯开源万亿级分布式消息中间件TubeMQ,百度开源PaddlePaddle,一个比肩PyTorch、TensorFlow的国产深度学习框架,还有阿里、滴滴、小米等也都开源了很多软件。另外,除了这些互联网巨头外,也不断有其他科技企业为开源加码,其中,值得一提的是,旷视开源其深度学习框架——天元(MegEngine),这是国内首家开源深度学习框架的AI独角兽企业。毋庸置疑的是,开源软件已经对人工智能产业发展形成了强大的推动力量,由此,也吸引了越来越多的中坚力量加入其中。
不过,从长远来看,中国的开源产业还处于刚刚起步的阶段,而且其中也面临着诸如开源人才短缺、项目不足等挑战。因此,在机遇与挑战并存的AI时代下,未来如何发展中国的开源产业,构建开源生态是所有从业者需要思考和解决的问题。作为开源产业的积极倡导者,旷视在2020中关村论坛期间举办了一场平行分论坛,以“人工智能开源开放和生产力促进”为主题,邀请了来自海内外的数十位专家学者和企业代表,从自身学术观点和产业实践的角度出发,分享了各自对开源产业未来发展趋势的独到见解,以及如何通过软件开源,技术协作助力人工智能产业落地等问题的思考。
除此之外,在论坛上,旷视首席科学家孙剑博士还带来了深度学习框架天元的重大技术升级。最后,论坛还设置了圆桌讨论环节,邀请到七位资深专家探讨了深度学习开源框架的深度趋势和应用落地。6位大咖分享洞见,共话AI产业趋势9月18日上午9时许,在旷视科技资深副总裁赵立威的主持下,嘉宾分享环节正式开启,第一位分享的是中国工程院院士郑南宁教授。
中国工程院院士郑南宁:重塑AI的创新基础:数据、算法和计算能力郑南宁教授指出,当前以深度学习为代表的新一代人工智能技术,正面临着卷积神经网络带来的局限性,以及如何应对指数级复杂性任务的挑战,而解决这些问题,我们需要新的AI计算架构。在他看来,符号主义的基本问题是,很难从低级信息直接形成符号实体,而连接主义的问题是,缺乏推理和因果关系的表达能力,无法解释决策背后的推理,无法表征人类的语言学习能力,难以实现高阶的认知功能,这就需要将符号主义算法与连接主义相结合去探索新的计算架构。
对此,郑南宁教授进一步指出,人类所需要解决的问题具有不确定性和开放性,任何机智能机器都无法完全取代人类在现实世界的交互,那么,如何恰如其分地把人的作用引到人工智能系统中,建立新的混合增强的人工智能框架,是一个非常值得探索的重要方向。最后,他强调框架开源对推动人工智能发展至关重要。人工智能生态系统的发展可以统称为AI堆栈,通常由三个组件来构成,一是基础设施,二是开发环境;三是业务线的应用程序和服务。其中,应用程序的开源库,指的就是Tensorflow、Caffe等深度学习开源框架,它是人工智能技术发展所需工具和技术主要来源。
因此,他表示,旷视天元等国产深度学习框架选择开源,对提高我国人工智能的核心竞争力,对AI生产力发展及生态建设都具有重大意义。清华大学高等研究院双聘教授沈向洋:AI科技:人才发展创新沈向洋教授围绕人才、发展和创新三个主题词讲述了当前人工智能发展面临的机遇和挑战。第一,如何把人口红利变成工程师红利,培养AI人才。
他认为,应该培养学生读论文、作实验、写论文和作报告的能力,除此之外,还要培养学生基本的团队协作和沟通的能力。第二,如何从深度学习到深度理解,促进AI发展。
在过去几年,在大数据、算法的支持下,感知智能取得飞速发展,尤其是在计算机视觉、语言识别领域。对于人工智能下一阶段的发展,沈向洋认为将会聚焦于认知智能,包括从认知模型到常识建模、到因果推理都是重要的研究方向。而且,自然语言处理将在其中发挥核心作用。如他所说,“从感知到认知,懂语言者得天下,我们必须要把自然语言里的认知问题搞清楚”。
虽然诸如GPT-3、BERT等超大模型已经在语言处理方面表现出了惊人的性能,但他相信,它们的理解还是远远不够的,未来还会有更多混合模型的方法被提出。第三,在创新层面,未来中国的开源应该如何做?沈向洋认为首先开源是文化问题,我们要认识到开源不仅是抄代码,更重要的是贡献代码,甚至是引领开源项目,在这一点上,百度、阿里、旷视等科技公司做了很多工作,是我们学习的榜样;另外,是创造更多的工具和平台,与国际现有平台接轨,同时,为开发者提供更多创新和创新的机会。清华大学计算机系副主任,教育部长江学者特聘教授胡事民:机器学习框架计图的创新与探索胡事民教授主要通过计图的研发历程,讲述了高校如何做深度学习框架的技术创新。
教授介绍称,计图框架支持30多个骨干网络,27种GAN模型以及更多的AI应用。其内部框架分为系统层、计算图层以及算子层,在这其中,我们做了很多创新工作。首先是算子层,Tensorflow有2000多个算子,不但难维护而且管理成本高。
计图在这里发现了一个更优的解决方案,即可以把其中最简单的计算提炼出18个,称为元算子,再通过与其他算子组合再做算法。另外是计算图的问题。计图通过结合Google静态图和Facebook动态图的优势,提出了一种统一计算图的概念,即通过元算力理论,将其做成局部静态优化,可以在提高性能的同时,增强灵活性。
对于框架下一步的研发方向,教授认为会聚焦在可微编程技术,如图灵奖获得者LeCun教授所说,“深度学习已死,可维编程万岁”。在他看来,目前深度学习的框架提供的可微模块和算子需要优化训练,随着任务越来越复杂,比如渲染、几何、物理模拟等可能无法实现,那么,我们就需要自底向上搞一套可微编程的东西,这非常重要。最后,教授强调,中国的深度学习框架不是多了,而是少了,只有百花争鸣才能共同发展,另外,无论是企业还是开发者都应该积极拥抱开源,互相支持,共同发展,才能使中国人工智能做得更好,走得更稳。
中移系统集成有限公司副总经理王昀:共建5G新生态共赢智慧新时代王昀提出,5G是一个新的开端,之前3G、4G移动互联网是为个人娱乐服务的,而5G将通过与人工智能结合,为整个工业互联网服务,为整个社会的千行百业服务,它会提高整个国民经济生产要素的效率和组织能力,这对于社会的回报是非常高的。当然高回报的同时,也意味着高投入,截止到2025年,仅三个运营商,5G网络建设投资累计将达到1.2亿随后,王昀介绍了当前中国移动在5G网络技术上的最新进展:在技术上,中国移动的5G专利多达1700多项,在全球运营商里排名第一。在能力上,将5G与AI结合,将产生的海量数据,再次通过人工智能技术应用到工业、港口、矿山、轮船等各行各业中,真正实现通信能力与AI能力的结合。
在生态上,中国移动已经与国内很多AI企业达成了合作关系。随后,王昀具体介绍了中国移动在数字城市、数字政府等方向上,利用AI与5G结合的应用案例。
目前中国移动已经形成了完整的人工智能产品体系,未来他表示,希望通过与更多企业合作真正,让该产品真正落地,赋能百业。他说,中国移动在融入千行百业,每个行业都有不同的应用,不同的合作伙伴,不同的需求,我们除了做中间的平台,做底层5G网络和物联网的接入之外,我们希望和学校,相应的AI公司和政府能协同起来。Imagination全球副总裁AndrewGrant:在边缘侧神经网络处理器IP中使用开源的AI框架AndrewGrant主要讲述了开源AI框架在边缘侧神经网络处理器IP中的使用,如何有效地集成到多个AI框架,以及开源社区的价值等三个方面。Grant强调,边缘侧AI推理从根本上承担了以前仅适用于云的工作负载,它通过在所有类型的设备中嵌入高性能推理,为移动、工业、安全、物联网等多个产业发展带来了新机遇。
接下来,他具体从边缘推理加速器、GPU等方面进行了论述。首先,边缘侧推理加速器具有4-16位的可变带宽,其动态定点数据类型,可以帮助用户优化精度,并具有高度确定性。它还为AndroidNN提供过滤器目数选择,为TensorflowLite带来兼容性和更好的量化特性。因此,IMG的边缘侧加速器,即NNA,具有很高的PPA效率,可扩展并且支持多实例。
另外,在GPU方面,当我们构建AISynergy方法以利用Hyperlane技术时,浮动任务可以在GPU上运行而且您可以使用Khronos的行业标准API,包括OpenGLES、OpenCL和Vulkan,而Imagination公司的GPGPU可以补强ImaginationNNA,在运行不同的工作负载时,每个负载都针对特定IP进行了优化。IMGDNNAPI是一个单独的IPI,它使开发人员只需最少的代码更改即可轻松地将应用程序从GPU移植到NNA,从而使开发人员能够启用软件和工具。随后,教授介绍了如何使用开源工具建构神经网络生态的示例。
与此同时,他也强调,开源是创新和机器学习发展的最有效的手段。MLPerf负责人DavidKanter:加速机器学习的创新DavidKanter主要分享了关于机器学习的潜能,以及全社会如何通过开源共享成果,进而让机器学习发挥更大价值。在他看来,机器学习的发展和应用,存在三个关键点:第一是基准和指标,它可以让研究人员、市场客户与供应商之间形成共识,并得到统一且最优的解决方案。第二是实现开源开放。
通过Tensorflo和PyTorch等开源框架,以及大规模数据集的共享,加速整个行业的发展。例如ImageNet数据集的出现,推动了计算机视觉领域的发展。
第三是最佳实践。更多的开发者能够基于最好的机器模型进行训练和部署,帮助减少使用机器学习模型的阻力并复现。
例如Linux项目,正式通过开源社区的开发者们不断下载、优化、上传而最终实现的。最后,Kanter强调无论是自动驾驶、翻译、医疗诊断还是图像技术,机器学习都能够发挥重要作用,而开源开放平台,以及最佳实践和行业标准正式推动其发展的核心力量,希望能够有更多的开发者参与到其中。旷视发布天元1.0预览版,启动“AI加速计划”在嘉宾们分享结束后,旷视研究院院长、首席科学家孙剑重磅发布了旷视天元(MegEngine)1.0预览版。
今年3月份,旷视正式开源了其自研深度学习框架—旷视天元(MegEngine)。该命名取自棋盘的中心点,在之后的6个月内,天元经历了多项技术升级和多次版本迭代。
此前,6月份更新的Beta版重点优化了三方面的特性,一是支持各种ARM系列的CPU,二是量化训练模型的推理功能,三是性能优化,这次的1.0预览版在此基础上,围绕训练一体,全平台高效支持、动静结合三大核心优势,进一步带来了5项技术升级。全新ImperativeRuntime:解决资源释放问题,改善动态图的特性。自动代码剪裁:最小化推理时的代码体积,提升端侧推理效率。推理性能优化:推出近十种推理优化方法,端侧推理性能进一步提升。
国产硬件支持:支持更多国产AI芯片,推理更高效。基于MLIR的静态子图优化引擎:融合编译器最新算子优化方式,提升深度学习训练和推理速度。
旷视一直强调,“训练一体,为产业应用而生”,是天元框架的最大特色,也是天元开源的初心。在论坛上,孙剑博士针对这一点做了具体的分享,在框架的生态建设方面,天元提供大量的图像分类、图像检测、图像分割、关键点、自然语言处理、生成对抗网络等基础预训练模型;在开源生态方面,与小米的MACE,OpenAI的Tengine等不同的深度学习端侧推理引擎达成合作;在开发者方面,提出培训和激励计划,推动其发展和衍生等。同时,他也强调未来天元还会不断进行技术升级和版本迭代。
目前AI领域不乏一些重量级的深度学习开源框架,比如主流的Tensorflow、PyTorch以及国产新秀PaddlePaddle等。那么,如何在未来的技术迭代上,持续保持自己的核心优势,扩大产业应用范围?是旷视需要面对的问题。
对此,孙剑博士也分享了三点思考,他表示,真正提高AI生产力平台,标准化深度学习开发流程将是首要的发力方向;其次,编译器技术在深度学习框架领域逐渐成为趋势,旷视也会在这个方向上加大投入力度;最后是AI芯片,旷视的目标是实现AI芯片去黑盒化,在框架中支持不同类型的AI芯片,以提高训练和推理性能。最后,值得一提的是,除了开源开放促进AI产业落地外,旷视创始人兼CTO唐文斌还正式发布了“人工智能加速计划”,进一步从技术开源开放、人才培养和产业标准定制两个方面助力AI与传统产业的深度融合。在开源开放方面,旷视还推出了Brain++商业版,帮助企业快速、高效低建立AI基础设施。据验证,Brain++可有效缩短80%算法从需求到落地时间,整体降低55%的算法生产成本。
在人才培养方面,旷视通过“辰星计划”,培养3000名AI人才;通过企业培训,培养1万名能够通过Brain++完成算法生产的AI人才。在产业标准制定上,旷视已经参与了一系列国内外的AI产业标准制订,未来将在基础技术互通标准,AI行业应用标准,AI治理标准等多个方面上继续发力,与合作伙伴共同推动行业的良性发展。深度学习开源框架的技术趋势及应用在旷视高级副总裁赵立威的主持下,论坛进入了最后的高峰对话环节。
该环节围绕“深度学习开源框架的技术趋势及应用”,邀请了来自产业界和学界的7位重量级嘉宾展开深度探讨。他们分别是清华大学计算机系教授唐杰,寒武纪副总裁刘道福,北京一流科技有限公司创始人袁进辉,旷视研究院高级技术总监田忠博,小米深度学习框架负责人何亮亮,OPENAILAB(开放智能)Tengine产品负责人程实,北京燧原智能科技有限公司首席架构师李翔。
赵立威提问:最近发布的GPT-3,含有1750亿参数,模型大小达到了700个G,一次训练成本高达上百万美元,各位如何看待现在神经网络数据量参数、训练成本不断上升的趋势?唐杰:其实,回过头来看近10年的发展历程,从最初的计算上云,到数据上云,云端存储和共享已经成为计算机发展的一种必然趋势。从这个角度来看,如果未来语言模型上云,GPT-3相当于给全世界训练了一个语言模型,那么在某种程度上,它的成本并不高,或者还可以说降低了。而且我们不需要每个人都去维护一个大数据,维护一个计算资源,或者维护一个训练模型,这样还可以把更多的资源和精力放在算法研发和产品落地上。
李翔:我想说的是BERT模型,事实证明,在NLP领域陷入瓶颈时,谷歌提出这样一种简单粗暴的方法是可行的。即把一些简单结构变成一个大的模型,直接利用算力来解决问题。
这种方法其实也带给我们一些启发,当我们在应用领域的研发非常困难时,利用硬件优势解决问题可能更加有效,所以,我觉得GPT-3之后,还会有更多更大的模型出现,这是一种趋势。还有另外一种趋势是很多研发人员愿意通过压缩、量化的方法来减少算力的需求,我觉得这两种趋势可能会相辅相成,相互促进。
赵立威提问:在深度学习框架领域,接下来最重要的技术创新方向有哪些?何亮亮:我想突出的一点是,在深度学习框架领域,创新从未停止,当“破坏式”创新出现的时候,可能会颠覆整个生态。比如,今天很多学界和工业界,因为PyTorch的技术创新而改变了生态。另外,深度学习编译,包括单设备编译以及分布式编译,也出现了很多创新的想法。比如,微软研究院最近开源一项最新编译技术,相信两个月文章后发表会引起编译技术重要变革。
田忠博:在深度学习领域,有很多值得关注的技术,如大规模并行、芯片适配,但我认为最重要的是框架的编译器化,它代表着一个全新的范式,一个本质的变革。就像沈向洋来时所说智能来自代码,人工智能产业本质上是由生产出来的代码支撑的,而编译技术就是生产代码最重要的技术之一。
我相信框架编译器化是未来的趋势。我们在天元1.0版中引入MLIR技术,也是希望能够和编译器的社区做更深入的探索。赵立威提问:业界非常关注这几家企业为什么要开源自己的框架,背后的思考过程是什么?与公司商业化是否能够形成闭环?田忠博:我觉得我们开源天元是为了旷视人、为了中国人的技术理想,我们希望能够在这里表达自己的声音,能够把我们的技术理念更好的传播给大家,为了更好的人工智能的未来。
袁进辉:很多框架研发者都是算法科学家出身,他们做框架是给自己用的,因为别人的框架不满足不了需求,那么为什么还要开源呢?我理解的是,开源是非常好的软件分发手段,它能直接和用户、场景发生关联。这就像如今的自媒体直播一样,它能够让更多有才华的人有展示的机会。赵立威提问:计算机研究在工业界和学界的差距究竟有多大,如何克服并搭建沟通二者的桥梁,包括学术界、工业界对技术成熟度的判断是否有标准上的差异呢?唐杰:最近几年,学术界在算法方便做了很多引领性的工作,包括CVPR、ICCV收录的论文数量爆增,其中有很多重磅的研究成果。
同样,工业界也做出了很大贡献,尤其是在数据规模、算力、算法方面。最近几年,AI发展逐渐进入一个Stable稳定期,学术界开始做一些fundamental的研究,侧重挖掘理论研究背后的本质东西,而产业界更加关注场景落地,比如,算法是否能为工业带来真正价值,节省成本或者更高的收入,更多的是从经济角度去衡量,这是学术界和工业界之间形成的Gap。
那么如何Bridge二者之间的Gap,我觉得这是一件很难的事情,如果学术界和工业界耦合太紧,一定会走向两个极端,学术界会继续看十年、甚至二十年的东西,而工业会继续研究现实的场景落地,所以,接下来的纪念,二者之间的Gap会越来越大,这是我的一个大胆预判。赵立威提问:AI作为一种新的生产力,我们的共识是它将在不久的未来重塑所有的传统行业,当然在落地过程中又面临场景、人才以及需求、部署、成本这些挑战。
未来我们要如何解决这些挑战?田忠博:我认为智能时代的深度学习技术就像工业时代的电,会从最初有限的应用范围,扩展到我们日常生活的每分每秒中。对于AI落地过程中的挑战,我们应该从以下几个方面考虑:第一,需要有完整、全面地从生产到应用的整体解决方案;第二,需要足够多的AI人才,我们可以通过不断地培训,为社会输送高质量人才;第三,推动AI技术在各个行业的渗透率,让更多开发者低成本享用到最新技术,这样才能和整个智能时代的发展相辅相成。何亮亮:我谈两个目前存在的挑战,一是算法能力和产品落地Gap的问题;二是企业部署成本的问题。
前者简单说,就是懂产品的人不懂算法,懂算法的人没有产品意识。为了解决这个问题,我们一方面是鼓励算法和产品部门加强交流;二是补齐他们各自的短板,比如鼓励产品人去了解相机的算法、可穿戴设备的算法等。后者部署成本问题,可以分解为两个方面:一是固定成本,二是可变成本。
固定成本,我们需要提升研发的效率,像数据平台化,计算平台化等能够提升数据采集和算法研发的效率。可变成本,就是硬件成本,在保证算法效果前提下能使用更好的算力,这可以通过模型的量化压缩和自动化机器学习的方法来减少模型对算力的要求。小结AI时代下,开源开放与生态建设正在蓄势待发。
无论是从开发者、企业,还是整个AI产业发展的角度来讲,开源开放在其中都发挥着巨大的价值和潜力,这一点从学术界及产业界的嘉宾分享中可以洞见。另外,旷视开源天元框架也再次印证了这一点。与科技巨头们不同,天元框架对于这家仅成立九年的公司来说,不仅是其Brain++平台的核心组件,也是驱动其从创业成长为AI独角兽的核心引擎。而旷视选择开源,一方面是对技术和产品的信心,而另一方面是看到了开源背后的“多赢效应”。
不过,要想在中国形成一条完整的开源产业链还有很长的路要走。从论坛中的分享来看,为应对当前开源产业面临的挑战,主要解决方案聚焦于以下三点:在人才方面:引导开发者参与开源项目,实现从抄代码,贡献代码、到开发项目的跃迁。在企业方面:搭建类似于Github的开源平台,研发并开源更多的工具和技术。
在生态方面:打通技术、企业合作的上下游,构建开源社区,推动中国开源软件基金会的建立等。以上方案中,企业无疑发挥着中坚力量。
如果开源开放产业是未来不可逆的大趋势,那么,企业是否越早布局越好?原创文章,未经授权禁止转载。详情见转载须知。
本文关键词:开云(中国)Kaiyun,开云(中国)Kaiyun·官方网站-登录入口
本文来源:开云(中国)Kaiyun-www.x175.cn