阿里云文档 2024-11-04

基于ModelScope模型库和GPU实例闲置计费功能低成本快速搭建LLM应用

LLM(Large Language Model)是指大型语言模型,是一种采用深度学习技术训练的具有大量参数的自然语言处理模型。您可以基于ModelScope模型库和函数计算GPU实例的闲置计费功能低成本快速搭建LLM应用实现智能问答。

问答 2024-08-14 来自:开发者社区

在modelscope-funasr中SeACo-Paraformer模型有导出onnx版吗?

在modelscope-funasr中SeACo-Paraformer模型有导出onnx版吗?

阿里云文档 2024-08-13

在ACK中快速体验大语言模型

部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。

问答 2024-08-07 来自:开发者社区

modelscope-funasr使用gpu转写服务部署指南,asr模型还是会需要导出为onnx吗?

modelscope-funasr使用gpu版本的离线文件转写服务部署指南,asr模型还是会需要导出为onnx吗?不可以直接使用pt吗?

问答 2024-07-17 来自:开发者社区

modelscope-funasr社区里实时模型onnx中的decoder_quant是怎么导出的?

modelscope-funasr社区里实时模型onnx中的decoder_quant文件是怎么导出的呢?我按照脚本导出的只有model_quant文件,然后我看社区里其他onnx有的也没有decoder_quant这个文件

问答 2024-07-17 来自:开发者社区

modelscope-funasr这个模型可以导出onnx吗?

modelscope-funasr这个模型可以导出onnx吗?"dengcunqin/speech_seaco_paraformer_large_asr_nat-zh-cantonese-en-16k-common-vocab11666-pytorch"目前导出时报错,可能是因为该模型使用的是CifpredictorV2,但是最新的代码使用的是CifpredictorV3

问答 2024-06-04 来自:开发者社区

modelscope的 face_detection模型导出onnx不成功,怎么解决?

" modelscope的 face_detection模型导出onnx不成功,怎么解决?"

问答 2024-06-04 来自:开发者社区

图中modelscope模型怎么导出 onnx?

" 图中modelscope模型怎么导出 onnx?"

问答 2024-05-23 来自:开发者社区

modelscope-funasr的uniasr模型目前支持onnx导出吗?

modelscope-funasr的uniasr模型目前支持onnx导出和c++ onnx runtime推理吗?

问答 2024-05-21 来自:开发者社区

魔搭modelscope的音频降噪模型 有导出onnx后的使用方式吗?

魔搭modelscope的音频降噪模型 有导出onnx后的使用方式吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐