【深度学习推荐系统 工程篇】二、从TF-Serving看生产环境的模型推理服务

前言

模型训练完成后,到在线部署是其所必须要做的一步,伴随模型结构复杂/算力增加,打造低延时/低资源占用的模型预测服务是模型上线的关键;

tensorflow 很早就开源了tf-serving(代码连接:https://github.com/tensorflow/serving),虽然在性能上多有诟病,但我们仍然可以从其设计/实现上 发现一个模型推理服务应该具备什么样的功能

阅读本文后,希望读者可以:

1. 了解tf-serving的基本架构/流程
2. 了解生产环境的中模型推理服务会遇到的问题及常用优化思路

一、TF-Serving整体架构

在TF-Serving的文档(https://github.com/tensorflow/serving/blob/master/tensorflow_serving/g3doc/performance.md)中,用一个序列图描述了一次推理请求的调用栈:

在这里插入图片描述

上图比较简洁,我这里再画个图补充下:
在这里插入图片描述

上图中主要包含几点:

  • 函数调用流程
  • 底层依赖TensorFlow
  • CPU/GPU异构硬件平台的支持

二、模型推理服务

依据TF-Serving的架构,我们可以抽象出一个模型推理服务框架,如下:

在这里插入图片描述
上图中主要包括了几点:

2.1 自定义模型格式

TF-Serving仅支持 saved_model.pb格式,其他深度学习框架在在线推理的场景下,也有相应的解决方案(如ONNXRuntime等)。

从本质上讲,模型数据仅仅保存了训练得到的参数,理论上只需要模型服务实现了读取格式协议,然后推理时正确使用即可。

但另一方面,在线推理、服务真实上线部署时,可能会遇到各种问题, 如:

  • TB级别(超过单机规格)的模型如何上线服务
  • 如何做增量更新
  • 在线如何对模型结构进行优化

等等,要解决上述的问题,一般需要根据业务场景和服务框架 自定义模型格式。

2.2 模型链路的时效性

如果模型链路需要的时效性不强,一般**天级的模型更新(第T天的样本数据,第T+1天上线)**即可满足业务需求;

如果业务需要有时效性的需求,模型的训练/产出/更新 频次 需要进化到 “小时级/分钟级”(样本数据从曝光到Serving上线的时间间隔在小时/分钟),甚至是流式框架;

这对模型服务的数据管理提出了更高的要求,可能会遇到以下的问题:

  • 如何设计合适的数据协议格式?达到在时间的限制下完成数百GB模型更新的效果
  • 更新时,服务的稳定性如何保证?(常见新模型上线后,平响/999线 会有飙升,接收流量一段时间后平响才会趋于平稳)

2.3. 硬件平台的支持与优化

一般模型的复杂度和业务场景相关:

  • 算力需求较少(模型结构简单+业务峰值流量少),一般可以进行CPU部署;
  • 算力需求较大,且工程指标要求高(如 模型结构复杂 + 业务峰值流量高 + 业务峰值流量下 平响/失败率 要求严格),需要CPU + GPU的异构部署;

这就导致了模型推理服务 仅支持单平台不够,往往需要支持多平台的异构部署(通常方案是CPU + GPU)

另外提下:在搜索/推荐等包含大量稀疏特征的场景中,模型推理在不同的阶段有不同的特点:

(1)稀疏特征的处理,更偏向于 “IO-bound(IO密集型)”,在生产环境中,容易受限的是IO 是 访存网络
(2)网络计算的处理,更偏向于“CPU-bound(计算密集型)

针对如上特点,模型服务在完成部署后 还需要针对相应的硬件平台进行优化,从开源方案中,一般有以下几种优化点:

1. CPU

CPU在不同的部署下,负责的事情不一样:

  • CPU部署,一般是网络计算,另外如果在PS架构中,做访存也比较多(如查询KV-Embedding等)
  • CPU+GPU 异构部署,CPU仅负责网络IO、线程调度、H2D等 轻量级 任务

根据以上任务,CPU平台有如下的优化点:

  • 充分发挥指令集的优势,如充分利用AVX指令集,减少流程中执行周期,指令周期内操作更多的数据
  • 充分发挥计算库的优势,一般DNN网络比较简单,MLP占了绝大部分的计算资源,这种情况可以使用MKL等矩阵乘计算库进行加速

2. GPU

GPU 有 2个特点:

  • 算力供给高(单位时间提供更多的浮点运算次数)
  • 显存带宽高(以 NVIDIA A10显卡为例,显存24GB,显存带宽达到了600GB/s,相比之下 相连的PCIE 带宽 仅有64GB/s)

因此,可以将以下2种操作放在GPU上实现:

  • 计算密集型的网络计算
  • 访存密集型的操作,譬如HashTable的Lookup 以及 Reduce Sum

以上是针对 GPU的硬件特点提出的具体操作,但能否充分发挥出GPU的性能 还与具体实现相关

一般而言,我们 用以下几个指标来量化工作效果:
(1)服务的吞吐/平响
(2)GPU利用率

3. SSD

整体模型推理服务上,要提供的一个功能是计算,还有一个功能是存储(如特征/KV-Embedding的存储),

从存储介质来看,一般 访问带宽越高/成本越高,由于搜索/推荐场景中的数据 存在冷热不均的特点,在不降低(或微降)服务性能的前提下,使用成本更低的存储介质有了可能。

整体思路是依据 访问频次不同,将数据分别放置在带宽/成本 不同的 存储介质上

部分开源的框架实现了GPU Memory -> CPU Memory -> SSD 的三级缓存架构,达到节省成本的目的,如:

  • oneflow框架的OneEmbedding(一块GPU训练TB级推荐模型不是梦,OneEmbedding性能一骑绝尘)
  • DeepRec框架的Embedding多级存储(Embedding多级存储)

4. 网络传输

如果数据过大单机难以放下的时候,在线可能会需要分布式部署,这个时候网络带宽可能会成为瓶颈。

这种情况下,伴随着硬件/网络协议的升级 可以缓减这方面的问题(如RDMA协议,brpc框架在v1.4.0版本中增加了对RDMA的支持, 减少了网络传输中协议栈的开销)

以上仅举了4个典型的硬件场景以及相关的优化点,但实际生产环境远比这个复杂的多,需要针对实际问题具体分析优化

三、总结

这篇主要是以TF-Serving为基础,简单介绍了生产环境中模型推理服务所面临的问题。

针对搜索/推荐等稀疏特征场景,有不少开源的训练框架(如xdl/DeepRec/HugeCtr等),但由于在线推理过程与业务逻辑强相关,实现上与业务/部署较多的耦合在一起,各个公司也大多是基于自身的业务对模型推理服务进行深度定制优化,很少有能普适的开源高性能模型推理框架。

而且模型推理服务 是 整个推荐系统中最不可或缺的一环,是算法能否落地的关键。其 工程指标+稳定性+性能 要求 是整条链路中最高的一个阶段。

针对 构建高性能模型推理服务,xdl项目(https://github.com/alibaba/x-deeplearning/blob/master/blaze/serving/README.md)中给出了以下 几点优化建议,列出来供有相关需求的同学参考:

  1. 使用别的高性能的rpc框架而不是HTTP服务,毕竟HTTP协议栈耗时在这种场景下并不是可忽略的。
  2. 客户端与服务端之间的通讯使用protocol的BinaryFormat而不是JsonFormat,这将大大提高序列化/反序列化的效率。
  3. 在ModelManager类中创建blaze::predictor的对象池,而不是在每个session中重复创建和销毁。
  4. 使用memcpy来将Blaze output中的数据拷贝到返回消息的protobuf中,而不是像此示例中一个一个赋值。(然而这种做法依赖与protobuf的实现,可能造成兼容性问题)

另后续的 工程篇 会继续介绍 针对搜索/推荐等特征稀疏场景 的开源框架,这样大家能对模型推理服务 的问题/开发 有更深层次的了解

本文仅简单的提到模型服务的在线推理可能会遇到的问题,工作的中的许多优化 涉及到业务细节 不能分享。想进一步了解的同学可以看下 美团分享的这篇文章,分享了大规模模型工程的实践中的问题以及优化点,梳理的很详细: 外卖广告大规模深度学习模型工程实践

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/5047.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

1.1.1 Qt信号槽之connect与disconnect介绍

关于Qt信号槽中connect与disconnect介绍 首先我们要知道,如果想要使用Qt中的信号槽机制, 那么必须继承QObject类,因为QObject类中包含了信号槽的一系列操作,今天我们来讲解的是信号与槽怎么建立连接以及断开连接。 一、connect …

JSP原理以及基本语法

1、JSP原理 什么是JSP? Java Server Pages:Java服务器页面,和Servlet一样是动态Web技术! 和HTML的区别? HTML是静态页面。在JSP页面中可以嵌入Java代码,为用户提供动态的数据。 JSP 和 Servlet 的关系…

前后端分离,通用分页js处理模板

功能 **可实现一个页面多个ajax无刷新分页列表** **可解决页面数量非常多的问题** 效果&#xff1a; 截图&#xff1a; 步骤&#xff1a; 第一步&#xff1a;创建一个index.html引入 <script src"./jquery-3.7.0.js"></script><link rel"st…

华为云GaussDB,能否成为数据库国产化替代的“更优选择”?

没有一个行业比数据库更需要长期主义&#xff0c;而在践行长期主义的道路上&#xff0c;国内数据库厂商中华为是不可忽视的存在。 近日&#xff0c;Gartner Peer Insights《Voice of the Customer for Cloud Database Management Systems&#xff0c;2023》报告发布&#xff0…

JMeter HTTP请求的详细指南,还不知道的快来看

目录 JMeter HTTP请求简介 什么是JMeter HTTP请求&#xff1f; 如何使用JMeter的HTTP请求&#xff1f; JMeter HTTP请求配置 创建JMeter HTTP请求 JMeter HTTP请求实例 结论 JMeter HTTP请求简介 在JMeter中&#xff0c;服务器名称和它的路径对于检查请求是否到达了正确…

10W+前端面试题面试资料八股文

点击下方链接获取全部内容文档题目及其答案: 10W前端面试题&面试资料&八股文题目及其答案 https://m.tb.cn/h.5a7v237?tkQeVPdsoKwr4 CZ3457 部分题目如下&#xff1a; 1. call丶apply丶bind区别及源码实现&#xff08;手写&#xff09; 不同点&#xff1a; call…

(二)线程的六种状态及上下文切换

&#xff08;二&#xff09;线程的六种状态及上下文切换 2.1 操作系统中线程的状态及切换2.2 Java 中线程的六种状态01、NEW&#xff08;线程尚未启动&#xff09;02、RUNNABLE&#xff08;运行中&#xff09;03、BLOCKED&#xff08;阻塞状态&#xff09;04、WAITING&#xff…

Linux--共同访问的公共目录不允许a用户删除b用户目录或文件:粘滞位 -t

情景&#xff1a; ①当多个用户共享同一个目录&#xff0c;需要在该目录下&#xff0c;进行读写、创建文件 ②但是自己只能删除自己的&#xff0c;而不能删除别人的&#xff08;w:可以互删的&#xff0c;但是不满足条件&#xff09; 语法&#xff1a; chmod t 目录名 注意…

Java(六):Eureka项目搭建、数据请求

Eureka项目搭建、数据请求 Eureka简介Eureka项目创建1、新建Maven项目2、只保留Maven项目的依赖文件3、创建子模块&#xff08;Eureka服务模块&#xff09;4、修改pom.xml5、创建并修改配置文件6、添加Eureka注解7、运行8、创建其他服务9、修改pom.xml10、创建并修改配置文件11…

Docker-compose的使用

目录 Docker-compose 简介 docker-compose的安装 docker-compose.yaml文件说明 compose的常用命令 总结 Docker-compose 简介 Docker-compose 是用于定义和运行多容器的 Docker 应用程序的工具。可以使用YAML文件来配置应用程序的服务。&#xff08;通俗讲是可以通过yml文…

【Spring Cloud系列】- Eureka使用详解

【Spring Cloud系列】- Eureka使用详解 文章目录 【Spring Cloud系列】- Eureka使用详解一、概述二、Eureka简介三、Eureka结构与作用Eureka结构图Eureka采用CS&#xff08;Client/Server,客户端/服务器&#xff09;架构&#xff0c;它包括以下两大组件 四、Eureka集群及与应用…

stable-diffusion 预训练模型汇总

目前各个github上各个库比较杂乱&#xff0c;故此做些整理方便查询 Stable UnCLIP 2.1 New stable diffusion finetune (Stable unCLIP 2.1, Hugging Face) at 768x768 resolution, based on SD2.1-768. This model allows for image variations and mixing operations as d…