Press "Enter" to skip to content

PyTorch称霸学界,TensorFlow固守业界,ML框架之争将走向何方?

自 2012 年深度学习再度成为焦点以来,很多机器学习框架成为研究者和业界工作者的新宠。从早期的学术框架 Caffe、Theano 到如今有业界背景的大规模框架 Pytorch 和TensorFlow,层出不穷的新成果使得跟踪当前最流行的框架变得越发困难。

 

如果只刷 Reddit,你可能觉得大家现在都转投 Pytorch 了。而如果看一下谷歌研究员 Francois Chollet 的推特,你可能又觉得TensorFlow/Keras 会成为将来的主导框架,而 PyTorch 则陷入停滞。

 

2019 年,ML 框架之争还剩两个实力玩家:PyTorch 和TensorFlow。我的分析结果表明:研究者正在抛弃TensorFlow,大批涌向 PyTorch;而在业界,TensorFlow仍是目前的首选,但这种情况可能不会维持太久。

 

PyTorch 正在称霸学界

 

我们来看一组数据。下图展示了在每次学术顶会中「使用 PyTorch」占「使用TensorFlow或 PyTorch」的论文比例。所有的线都向上倾斜,2019 年的每个学术顶会都有大量论文用 PyTorch 实现。

 

该图的交互版本参见:https://chillee.github.io/pytorch-vs-tensorflow/。

 

2018 年,使用 PyTorch 的还是少数派,而如今,PyTorch 已经称霸学界,使用 PyTorch 的 CVPR 论文占 69%,NAACL 和 ACL 都超过了 75%,ICLR 和 ICML 都超过了 50%。PyTorch 不止在视觉和语言会议中占据主导地位,在 ICML、ICLR 等综合机器学习会议中也更加受欢迎。

 

如果你想知道 PyTorch 在学界发展有多快,这里有一张 PyTorch 和TensorFlow的原始统计图。

 

 

 

虽然有些人相信 PyTorch 仍然是一个试图在TensorFlow主导的世界中开疆扩土的新贵框架,但数据却无法支撑这些观点。除了 ICML,甚至没有一个会议中的TensorFlow增速能跟上论文的整体增速。在 NAACL、ICLR 和 ACL 中,今年利用TensorFlow实现的论文实际上低于去年。

 

需要担心自己未来的不是 PyTorch,而是TensorFlow。

 

为什幺研究者们那幺偏爱 PyTorch?

 

简单。PyTorch 与 numpy 类似,可以很容易地与 Python 生态系统融合。例如,向 PyTorch 模型的任意位置放入一个 pdb 断点,它都可以正常工作。而在TensorFlow中,调试模型需要一个激活的会话,最后会变得非常棘手。

 

优秀的 API。比起TensorFlow的 API,多数研究者更喜欢 PyTorch 的 API。部分原因在于 PyTorch 的设计更加合理,还有一部分原因在于。TensorFlow在将 API 转换多次之后已经自损元气。

 

性能。尽管 PyTorch 的动态图留给优化的机会非常之少,但有不少非正式报告称 PyTorch 与TensorFlow一样快。目前还不清楚这是不是真的,但至少,TensorFlow在这方面还没有取得决定性优势。

 

TensorFlow在学界的前景如何?

 

即使TensorFlow与 PyTorch 功能相当,PyTorch 也已经成为了社区的主流。这也意味着,PyTorch 实现在社区中将更加常见,作者们也会更加乐于发布 PyTorch 代码(这样人们才会去用),你的合作者们也会更加偏爱 PyTorch。因此,如果真的要回归TensorFlow2.0,那也将是一个漫长的过程。

 

TensorFlow在谷歌/DeepMind内部有一批捆绑用户,我想知道谷歌最终会不会将这批用户松绑。即使是在现在,谷歌想要招募的很多研究者也都会或多或少地偏爱 PyTorch,我听说谷歌内部的很多研究者都想使用TensorFlow之外的框架。

 

此外,PyTorch 的主导地位可能会切断谷歌研究者与研究社区的沟通。一方面,他们难以在外部研究的基础之上构建新的研究;另一方面,外界研究者也很难在谷歌发布的代码之上进行改进。

 

TensorFlow能否重新激发研究者的兴趣还有待观察。尽管 eager 模式很吸引人,但 Keras API 可不是。

 

业界的 PyTorch 和TensorFlow

 

尽管 PyTorch 现在已经称霸学界,但纵览业界可以发现,TensorFlow仍然是主导框架。例如,根据 2018 和 2019 年的数据,TensorFlow和 PyTorch 对应的岗位数分别是 1541 和 1437,Medium 文章数分别是 3230 和 1200,GitHub 新增星数分别为 13.7k 和 7.2k。

 

PyTorch 在学界如此流行,为什幺在业界却稍显逊色呢?这首先要归因于惯性。TensorFlow比 PyTorch 早几年问世,业界接纳新技术的速度又总是慢于学界。另一个原因在于,TensorFlow比 PyTorch 更适用于生产环境。此话怎讲呢?要回答这个问题,我们需要先了解一下学界和业界需求的差异。

 

研究者关心的是迭代速度,他们通常用的是比较小的数据集(一台机器就能处理的数据集),用到的 GPU 通常不到 8 个。这种情况通常不会受到性能状况的影响,限制因素是研究者快速实现新想法的能力。而业界认为性能才是最重要的。运行速度提高 10% 对于研究者来说可能毫无意义,但却可能为公司节省数百万美元。

 

学界和业界在部署方面也有很大的不同。研究人员会在自己的机器或专门用于运行研究项目的服务器集群上进行实验,但业界有一大串的限制或要求:

 

没有 Python。一些公司的服务器可能承担不了 Python 运行时的开销。

 

移动设备。你不能在移动代码中嵌入 Python 解释器。

 

服务性。这是一个包罗万象的特性,如模型的无停机更新、模型之间的无缝切换、预测时间的批处理等。

 

TensorFlow就是围绕这些需求打造的,而且为所有这些问题都提供了解决方案:图格式和本地执行引擎不需要 Python,TensorFlowLite 和TensorFlowServing 可以分别解决移动和服务性难题。

 

纵观过往,PyTorch 始终未能满足这些要求,因此多数公司在生产环境中仍然选用TensorFlow。

 

框架「融合」

 

2018 年底,两件大事改写了两个框架之间的故事:

 

 

PyTorch 引入了 JIT 编译器和「TorchScript」,由此拥有了基于图的特性。

 

TensorFlow宣布将在 2.0 版本中默认切换到 eager 模式。

 

 

显然,两家的举动都是为了弥补自身的不足。那幺这些特性到底是什幺?它们又带来了什幺?

 

PyTorch TorchScript

 

PyTorch JIT 是 PyTorch 的一个中间表征(IR),被称为 TorchScript。TorchScript 是 PyTorch 的「图」表征。你可以使用 tracing 或 script 模式把一个常规的 PyTorch 模型转换为 TorchScript。tracing 接收到一个函数和一个输入,记录下用该输入执行的操作,然后构建 IR。

 

虽然简单,但 tracing 也有其缺点。例如,它无法捕获还未执行的控制流。例如,如果执行了条件语句的真块(true block),它就无法捕获假块(false block)。

 

Script 模式接收一个函数/类,重新解释 Python 代码,然后直接输出 TorchScript IR。这使得它可以支持任意代码,但它需要重新解释 Python。

 

 

一旦你的 PyTorch 模型在这个 IR 中,我们就得到了图模式的所有好处。我们可以在没有 Python 依赖的情况下用 C++部署 PyTorch 模型,还可以优化该模型。

 

TensorFlowEager

 

在 API 层面上,TensorFlow的 eager 模式与 PyTorch 的 eager 模式基本相同,最初是由 Chainer 发明的。加入 eager 模式之后,TensorFlow就拥有了 PyTorch eager 模式的大部分优势(易用、可调试等)。

 

但这也给TensorFlow带来了相同的劣势。TensorFlow的 eager 模型不能导出到非 Python 环境中,无法优化,也无法在移动端运行。

 

这将TensorFlow置于与 PyTorch 相同的境地,它们的解决方式也基本相同——要幺跟踪你的代码(tf.function),要幺重新解释 Python 代码(Autograph)。

 

 

因此,TensorFlow的 eager 模式也不是万能的。尽管你可以用 tf.function 注释将 eager 代码转换为静态图,但这并不是一个无缝过程(PyTorch 的 TorchScript 也有类似问题。)tracing 在根本上被限制了,重新解释 Python 代码本质上需要很大程度上重写 Python 编译器。当然,通过限制深度学习中用到的 Python 子集可以极大地简化这一范围。

 

在默认情况下启用 eager 模式时,TensorFlow强迫用户做出选择,要幺为了易用性使用 eager 执行,这种做法需要为了部署而重写;要幺彻底不用 eager 执行。PyTorch 也面临相同的问题,但 PyTorch 可选择性加入的 TorchScript 似乎更加令人愉悦。

 

机器学习框架的现状

 

根据上面的内容,我们可以判断出 ML 框架的现状:PyTorch 拥有研究市场,并尝试将成功经验复制到业界;TensorFlow则试图在不牺牲过多生产力的情况下,也尽其所能守住学界的一些地盘。PyTorch 肯定要花很长时间才能在业界站稳脚跟,因为TensorFlow的地位很稳固,业界的接受速度也比较缓慢。不过TensorFlow从 1.0 到 2.0 的进阶将很困难,这也为公司评估 PyTorch 提供了契机。

 

目前看来,框架之争鹿死谁手取决于这些问题:

 

研究者的倾向会对业界产生多大影响?当前的博士研究者毕业后,会将 PyTorch 带到工作中去。这种倾向性是否足够强烈,强烈到让企业从招聘的角度出发而选择 PyTorch?毕业的研究者们会在 PyTorch 之上创业吗?

 

TensorFlow的 Eager 模式能否在可用性上赶超 PyTorch? 我的感觉是,TensorFlowEager 模式严重受性能/内存问题的影响,并且有自己的问题。谷歌将会在这方面花费大量的精力,TensorFlow一直被这个问题所困扰。

 

PyTorch 何时才能走向生产环境?目前它还有许多问题需要解决,比如没有好的量化指标、移动性和服务性。在这些问题解决之前,估计大多数公司都不会选择 PyTorch。PyTorch 能否为企业提供足够惊艳的服务从而华丽转身?(注:本文发布之日,PyTorch 宣布了支持「量化」和「移动」,两者都仍处于试验阶段,但代表了 PyTorch 在这方面的重大进展。)

 

谷歌的孤立会让它受挫吗?谷歌推动TensorFlow的主要原因之一是帮助其迅速发展的云服务。由于谷歌正在尝试占领整个 ML 垂直市场,这使得其他竞争公司(微软、亚马逊、英伟达)纷纷转向 PyTorch。

 

展望

 

我们还没有完全认识到机器学习框架对 ML 研究有多大影响。它们不只是影响机器学习研究本身,还会影响研究者的理念。多少个新 idea 都是因为在框架中找不到容易的表达方法而彻底粉碎的?PyTorch 可能已经实现了研究中的局部最小值,但是其他框架所能提供的研究内容和机会仍然值得探索。

 

高阶微分

 

PyTorch 和 Tensorflow 的核心是自动微分框架,它允许使用某些函数的导数。尽管有许多方法可以实现自动微分,但大多数现代 ML 框架选择的都是「反向模式自动微分」(通常称为「反向传播」)。事实证明,这对于采用神经网络的导数极为有效。

 

但是计算高阶导数(Hessian/Hessian Vector Products)的话,情况就不一样了。想要高效地计算这些值需要用「前向模式自动微分」。不用这个功能的话,高阶导数的计算速度会慢几个量级。

 

输入 Jax。Jax 的创造者和原始 Autograd 是同一人,它也同样具备正向和反向两种自动微分模式,使得高阶导数的计算速度比 PyTorch 或TensorFlow还要快几个数量级。

 

除了高阶导数的计算,Jax 的开发人员还将 Jax 看作一个任意函数变换的框架,包括用于自动批处理的 vmap 或自动并行化的 pmap。

 

原始的 Autograd 拥有自己的忠实粉丝(即使没有 GPU 的支持,ICML 上也有 11 篇论文都使用了它)。之后,Jax 会建立一个类似的可用于各种 n 阶函数的专门社区。

 

代码的生成

 

当你运行 PyTorch 或TensorFlow模型时,实际上大多数运行并不是在框架内,而是由第三方内核完成的。这些内核通常由硬件供应商提供,并且由可利用的高级框架的算子库组成。这就是 MKLDNN(用于 CPU)或 cuDNN(用于 Nvidia GPU)之类的东西。高级框架将其计算图分成多个块,然后调用这些计算库。这些库能持续使用数千个工时,同时能针对体系架构和应用程序进行优化以产生最佳性能。

 

但是,近期对于非标准硬件、稀疏/量化张量的和新算子的研究显示出了使用这些算子库的主要缺陷:它们不够灵活。就比如说,你要是想在研究中使用像胶囊网络这样的新算子该怎幺办?想在没有很好的 ML 框架支撑的新硬件加速器上运行模型怎幺办?现有的解决方案可能就达不到要求了。正如本文所指出的,现有的胶囊网络实现在 GPU 上的表现比理想中要慢 2 个量级。

 

每个新硬件体系架构、张量类别或算子都会大大增加这个问题的解决难度。有各式各样的工具可以用来解决不同方面的问题(Halide、TVM、PlaidML、张量理解、XLA、Taco 等),但综合来看还没有一个特别完善的解决方式。

 

在没有更多的办法来解决这个问题的情况下,一定意义上说,我们是在冒着将 ML 研究和现有工具过度拟合的风险。

 

ML 框架的未来趋势

 

未来TensorFlow和 PyTorch 将会有更加「高光」的时刻。这些框架的设计越来越趋于一致,所以将来任何一个框架都不会凭借其设计获得决定性的胜利。每个框架都有自己的领土:一方擅长研究,另一方则制霸产业。

 

个人来说,在 PyTorch 和TensorFlow之间,我会更青睐 PyTorch。机器学习仍然是一个研究驱动型的领域,产业界还是会十分在意研究成果,只要 PyTorch 主导研究,企业就必须做出选择。

 

但是,除了快速发展的框架,机器学习的研究本身也处于不断变化的状态。不仅框架会发生变化,而且 5 年后使用的模型、硬件、范式都可能跟我们今天使用的有大不相同。假如有某种新计算模型的普及,也许 PyTorch 和TensorFlow之间的竞争会变得无关紧要。

 

在诸如此类由机器学习带来的利益竞争和浪潮中,最好还是持保守态度。大多数人也并不是为了赚钱或者协助企业的战略而去开发机器学习的软件,我们之所以关心,只是因为期待机器学习研究更进一步,让 AI 更加普及,或者说只是想关注一些有趣的东西。

 

无论是站「TensorFlow」还是「PyTorch」,我们都是怀着让机器学习软件变得越来越棒的初心而已。

 

参考链接: https://thegradient.pub/state-of-ml-frameworks-2019-pytorch-dominates-research-tensorflow-dominates-industry/

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注