阿里云文档 2024-02-08

如何使用PAI-Blade的SDK部署TensorFlow模型推理

PAI-Blade提供了C++ SDK帮助您部署优化后的模型推理。本文以TensorFlow模型为例,介绍PAI-Blade的SDK的使用方法。

阿里云文档 2024-01-03

如何使用Blade优化通过TensorFlow训练的BERT模型

BERT(Bidirectional Encoder Representation from Transformers)是一个预训练的语言表征模型。作为NLP领域近年来重要的突破,BERT模型在多个自然语言处理的任务中取得了最优结果。然而BERT模型存在巨大的参数规模和计算量,因此实际生产中对该模型具有强烈的优化需求。本文主要介绍如何使用Blade优化通过TensorFlow训练的BERT模型。

阿里云文档 2023-09-13

如何使用Blade优化基于TensorFlow的ResNet50模型_人工智能平台 PAI(PAI)

ResNet50作为一个广泛应用的经典结构网络,其优化在多种推理部署场景中都具有很高的实用价值。本文介绍如何使用Blade优化基于TensorFlow的ResNet50模型。

阿里云文档 2023-03-24

如何将Tensorflow,Pytorch和Python等模型部署到Seldon中

DataScience集群的KubeFlow服务内置了SeldonCore组件, 可以为模型提供在线服务,基于Kubernetes,您无需关心在线服务的运维工作。您可以根据提供的dsdemo代码,将Tensorflow,Pytorch和Python等模型部署到Seldon中。

阿里云文档 2022-03-14

如何使用AICompiler对TensorFlow和PyTorch模型进行编译优化

AICompiler是集成在PAI-Blade中的AI编译优化组件,包含Static Shape和Dynamic Shape编译框架。通常您无需提供额外配置,AICompiler即可在通用透明的情况下帮助您提高推理性能。本文介绍如何使用AICompiler对TensorFlow和PyTorch模型进行编译优化。

文章 2020-01-13 来自:开发者社区

kubeflow系列(三):模型即服务,关于tensorflow serving的使用

kubeflow 中采用了 tensorflow serving 作为官方的tensorflow模型接口, TensorFlow Serving是GOOGLE开源的一个服务系统,适用于部署机器学习模型,灵活、性能高、可用于生产环境。 TensorFlow Serving可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 Tensorflow Serving 直接加载模型即可生成接口,不....

文章 2020-01-03 来自:开发者社区

kubeflow系列(三):模型即服务,关于tensorflow serving的使用

上一节:kubeflow系列(二):kubeflow组件介绍 kubeflow 中采用了 tensorflow serving 作为官方的tensorflow模型接口, TensorFlow Serving是GOOGLE开源的一个服务系统,适用于部署机器学习模型,灵活、性能高、可用于生产环境。 TensorFlow Serving可以轻松部署新算法和实验,同时保持相同的服务器架构和API。 Te....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

人工智能

了解行业+人工智能最先进的技术和实践,参与行业+人工智能实践项目

+关注