Press "Enter" to skip to content

支付宝AR扫福背后的故事

马上要到二零二一年的农历新年了,在这里首先祝小伙伴们新年快乐。与往年除夕一样,支付宝提供了集五福、分红包的活动,以庆祝新年的到来。其中,AR扫福的部分是与计算机视觉技术紧密相关的,而它背后的技术也十分令人感兴趣。本文在这里对AR扫福相关的信息和技术进行了汇总,以期望对其他部署于移动端的深度学习系统的落地实践起到借鉴意义。本文的部分内容转载于网络,其版权归原作者所有。

 

 

上图很好的总结了近年来AR扫福技术的发展过程,总体上呈现了从人工设计模型到深度学习模型的转变,识别方式上也从云端服务器识别逐渐过渡到手机客户端的识别。其中有两个关键的技术,一个是名为xNN的移动端深度学习引擎,另一个是名为 AutoML 的自动优化机器学习模型结构和参数的框架。这里主要对xNN的深度学习引擎进行一些探讨,该内容转载于阿里云开发者社区的一篇文章《 揭秘支付宝中的深度学习引擎:xNN 》。该文章对xNN深度学习引擎的总结是非常优秀且通俗易懂的,因此在这里推广学习一下。

 

深度学习——云端还是移动端?

 

近来,深度学习(Depp Learning)在图像识别、语音识别、自然语言处理等诸多领域都取得了突破性进展。深度学习通常给人以计算复杂、模型庞大的印象——从Siri语音助手到各种聊天机器人、再到支付宝“扫五福”,移动端收集数据加云端加工处理似乎成为一种常识。然而对很多应用来说,这种模式其实只是无奈之选。

 

 

去年春节的“扫五福”活动中,为了识别手写“福”字,支付宝多媒体团队调动了近千台服务器用于部署图像识别模型。可是如此规模的集群也没能抵挡住全国人民集五福的万丈热情。为了防止云端计算能力超载,活动中后期不得不启动了降级预案——用计算量小但精度也较低的传统视觉算法替代了深度学习模型。降级虽然不妨碍大伙继续热火朝天地收集福卡,但对用户体验无疑是有一定影响的,比如一些不可言说的汉字也被误判成了“福”字。

 

 

另一方面,深度学习在云端则意味着数据必须上传。即使不考虑计算压力,从网络延时、流量、隐私保护等角度也给用户体验带来种种限制。因此,对相当多的应用来说,DL模型前移到移动端部署可以看作是一种刚需。

 

两大挑战

 

最近,随着手机处理器性能的提升和模型轻量化技术的发展,移动端深度学习正在变得越来越可行,并得到了广泛的关注。苹果和谷歌已经分别宣布了各自操作系统上的深度学习框架Core ML和Tensorflow Lite,这无疑将极大地促进移动端深度学习的发展。但是,尤其对于支付宝这样的国民App来说,仍然存在一些严峻的挑战是无法通过直接套用厂商方案来解决的。

 

 

    1. 机型跨度大:支付宝App拥有数亿受众群体,在其中落地的业务必须对尽可能多的用户、尽可能多的机型提供优质的体验。对支付宝来说,参考Core ML只将功能开放给少数高端机型的做法是不合适的。因而无论在运行速度和内存占用等性能指标、还是在兼容性上,支付宝的移动端DL都必须做到极致,才能最大幅度地降低使用门槛。

 

    1. 包尺寸要求严:支付宝App集成了众多的业务功能,安装包资源非常紧张,一个新模型要集成进安装包往往意味着需要下线其他的功能。而即便通过动态下发的形式进行部署,深度学习模型的大小也会强烈影响用户的体验。随着移动端智能化程度的不断提升,直接在端上运行的深度学习应用必然会越来越多,这以当前单个模型大小就动辄数十、数百M的尺寸来看几乎是不可想象的。同时,移动端深度学习引擎本身的SDK也需要尽可能地瘦身。

 

 

五大目标

 

支付宝xNN是针对国民App环境定制开发的移动端深度学习解决方案,项目制定了如下技术目标。

 

 

    1. 轻模型:通过高效的模型压缩算法,在保证算法精度的前提下大幅减小模型尺寸。

 

    1. 小引擎:移动端SDK的深度裁减。

 

    1. 快速:结合指令层和算法层的优化,综合提升深度学习计算的效率。

 

    1. 通用:为保证最大的机型覆盖率,以最为通用的CPU而非性能更强劲的GPU作为重点优化平台。不仅支持经典的CNN、DNN网络,也支持RNN、LSTM等网络形态。

 

    1. 易用:工具链对业务保持高度友好——使得算法工程师们能更好地专注于算法本身,在不需要成为模型压缩专家和移动端开发专家的情况下都能快速完成云端模型到移动端模型的转换和部署。

 

 

主要特性一览

 

xNN为深度学习模型提供了从压缩到部署、再到运行时的统计监控这一全生命周期的解决方案。xNN环境由开发后台和部署前台两部分组成。

 

 

开发后台以xqueeze工具链为核心,支持多种训练框架。业务可以使用xqueeze压缩、优化自己的深度学习模型,得到尺寸大幅减小、运行速度显着加快的模型版本。压缩后的模型根据使用场景,可以通过App安装包内置或按需下发的形式部署到移动端。在部署前台,xNN的计算框架提供高效的前向预测能力。xNN的应用层在计算的基础上还提供了模型下发、数据统计、错误上报等一站式能力。xNN还通过一个jsapi提供了直接对接H5应用的能力——通过深度学习模型的动态下发和H5,能够实现完全的动态化,从而在客户端不发版的情况下完成算法+逻辑的同时更新。

 

 

上图给出了xNN的主要特性。在xqueeze模型压缩的基础上,xNN还支持通过快速处理稀疏网络来提高性能。xNN支持了丰富的网络结构类型,包括经典CNN/DNN、SSD目标检测和LSTM。xNN的部署框架原生兼容Caffe,业务可以在不做转换的情况下直接在移动端运行已有的Caffe模型,以快速评估效果。而经过压缩的私有格式模型更小、更快。在Tensorflow和Keras平台上训练的模型也能够在原有的环境上进行压缩,然后转换为xNN支持的格式部署到移动端。不同于Core ML,xNN理论上支持安卓和iOS上的所有机型。

 

xqueeze模型的压缩

 

xNN-xqueeze的模型压缩流程如下图之(a)所示,包括神经元剪枝 (neuron pruning)、突触剪枝 (synapse pruning)、量化 (quantization)、网络结构变换 (network transform)、自适应Huffman编码 (adaptive Huffman)、共5个步骤。其中前三步理论上是有损的,而使用xqueeze对网络权重和压缩超参进行finetune,能够将精度的下降保持在可控甚至可忽略的程度。后两步则完全不影响网络的输出精度。整个流程不仅会减小模型的尺寸,还通过网络的稀疏化和结构优化,显着提高前向预测的速度。

 

 

在领域的经典方案Deep Compression的基础上,xqueeze 进一步扩充了神经元剪枝和网络结构变换的能力。其中,神经元剪枝能够逐次裁剪掉“不重要”的神经元和与之对应的权重参数。通过神经元剪枝和突触剪枝 的结合,在模型精度和压缩比之间达成更好的平衡。xqueeze还具有网络结构变换,即在网络的宏观层面进行优化的能力。网络结构变换会使用脚本扫描整个网络,诊断出可优化的点,包括在有条件的情况下自动地进行层的组合与等效替换。此外,xqueeze通过自适应地使用Huffman编码,有效提升不同稀疏程度的模型之压缩比。如下图所示,对于业务分类模型,使用xqueeze工具链能够实现45.5倍的压缩,在同等程度的精度损失下,压缩率超越经典方案达60%。

 

 

xNN计算性能优化

 

xNN的性能优化不局限于底层,而是通过与xqueeze工具链的配合,在算法和指令两个层面同步发力,为更为深入的优化创造空间。如下图所示,在算法层,xqueeze的剪枝在压缩模型尺寸的同时,也促进了网络的稀疏化——即催生出大量的零值权重。相应地,xNN在指令层实现了稀疏运算模块,在卷积和全连接计算中,自动忽略这些零值权重,减小计算开销,提升速度。又如之前已经提到的,在xqueeze的网络结构变换阶段,会对网络进行宏观层面的优化,包括将相邻的层进行结果上等效的组合与替换,来减少计算的冗余度和提高访问存储器的效率。要充分发挥网络结构变换的效能,也离不开指令层实现的支持。

 

 

在指令层,xNN通过智能调配各个内核的负载,提升多线程环境下的性能。xNN在设计中不仅关注计算资源,还充分考虑了访问存储器的开销,通过精细化地调度数据的读写来提升cache的命中率。最为重要的是,所有核心计算模块均由某位芯片行业出身的指令集架构专家一条一条汇编代码手写而成。在以SqueezeNet为基础的业务分类模型上,xNN在Qualcomm 820 CPU上能够输出29.4 FPS的前向预测帧率,在苹果A10 CPU (iPhone 7)上的帧率则达到52.6 FPS,比CPU与GPU并用的Core ML还要更快。

 

业务落地

 

支付宝App已经集成了xNN。在支付宝的“AR扫一扫”入口,90%以上的Android和iOS机型都在使用xNN来完成前置物品分类,向用户推荐“AR扫花识花”等便利功能。xNN本身的健壮性也经受住了“七夕送你一朵花”这样高强度、广机型覆盖的大型运营活动的考验。该模型的最新版本在确保精度的前提下,尺寸已压缩到100KB以下。Android平台上,全功能xNN的SDK包增量仅200KB出头,若根据特定应用做裁剪,将能够轻松减小到100多KB。

 

 

xNN上线后,已在蚂蚁和阿里内部引起了强烈反响,一大波移动端DL应用正在基于xNN紧张开发中,并在未来的几个月中逐步提供给用户使用。

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注