博客
关于我
【研究生】TensorFlow Lite发布重大更新!支持移动GPU、推断速度提升4-6倍
阅读量:309 次
发布时间:2019-03-03

本文共 588 字,大约阅读时间需要 1 分钟。

TensorFlow Lite的最新版本引入了对移动设备GPU的支持,这一功能显著提升了模型推断效率,为移动应用开发者带来了更强大的性能保障。

在资源受限的移动设备上运行复杂机器学习模型往往面临性能瓶颈。TensorFlow Lite通过量化优化模型以提升性能,但这通常需要牺牲模型精度。而使用GPU加速的浮点模型则避免了这种权衡,既保留了高精度又获得了更快的推断速度。

在Pixel 3和S9等旗舰设备上,GPU加速使人脸轮廓检测速度提升了4倍,而在iPhone 7上则达到了6倍的提升。对于实时视频处理任务,如YouTube Stories中的视频分割模型,速度提高了5-10倍。

这种改进尤其在处理复杂模型时更加明显,如深度估计模型的速度提升了10倍。相比之下,对于较小模型的使用,GPU加速的优势相对较低,且可能带来额外的内存传输延迟。

在实际应用中,安卓开发者可以通过将TensorFlow Lite的AAR文件替换为带有GPU支持的版本,并在Java初始化代码中添加相应的GPU代理配置。iOS开发者则需要下载对应的TensorFlow Lite二进制文件,并在模型创建后调用GPU代理。

当前GPU支持仅适用于特定操作,如ADD、CONV_2D等,未来版本将扩展更多操作和性能。完整开源版本计划于2019年晚些时候发布。

文章链接提供了详细的使用教程及更多信息。

转载地址:http://hsbm.baihongyu.com/

你可能感兴趣的文章
Netty常见组件二
查看>>
netty底层源码探究:启动流程;EventLoop中的selector、线程、任务队列;监听处理accept、read事件流程;
查看>>
Netty核心模块组件
查看>>
Netty框架的服务端开发中创建EventLoopGroup对象时线程数量源码解析
查看>>
Netty源码—2.Reactor线程模型一
查看>>
Netty源码—4.客户端接入流程一
查看>>
Netty源码—4.客户端接入流程二
查看>>
Netty源码—5.Pipeline和Handler一
查看>>
Netty源码—6.ByteBuf原理二
查看>>
Netty源码—7.ByteBuf原理三
查看>>
Netty源码—7.ByteBuf原理四
查看>>
Netty源码—8.编解码原理二
查看>>
Netty源码解读
查看>>
Netty的Socket编程详解-搭建服务端与客户端并进行数据传输
查看>>
Netty相关
查看>>
Network Dissection:Quantifying Interpretability of Deep Visual Representations(深层视觉表征的量化解释)
查看>>
Network Sniffer and Connection Analyzer
查看>>
NFS共享文件系统搭建
查看>>
ng 指令的自定义、使用
查看>>
nginx + etcd 动态负载均衡实践(二)—— 组件安装
查看>>