阿里云文档 2024-11-04

基于ModelScope模型库和GPU实例闲置计费功能低成本快速搭建LLM应用

LLM(Large Language Model)是指大型语言模型,是一种采用深度学习技术训练的具有大量参数的自然语言处理模型。您可以基于ModelScope模型库和函数计算GPU实例的闲置计费功能低成本快速搭建LLM应用实现智能问答。

问答 2024-08-21 来自:开发者社区

modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的参数量是一样的么?

modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的参数量是一样的么?

问答 2024-08-21 来自:开发者社区

modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的是一样的么?

modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的是一样的么?

阿里云文档 2024-08-13

在ACK中快速体验大语言模型

部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。

问答 2024-08-07 来自:开发者社区

modelscope-funasr使用gpu转写服务部署指南,asr模型还是会需要导出为onnx吗?

modelscope-funasr使用gpu版本的离线文件转写服务部署指南,asr模型还是会需要导出为onnx吗?不可以直接使用pt吗?

问答 2024-07-31 来自:开发者社区

modelscope-funasr中文离线转写服务GPU版本,如何指定pytorch模型和版本呢?

modelscope-funasr中文离线转写服务GPU版本,如何指定pytorch模型和版本呢?我在命令行启动的时候把模型名后缀修改成pytorch,貌似代码还是在读取onnx量化后的模型

问答 2024-07-31 来自:开发者社区

modelscope-funasr这个服务,怎么去掉除了ASR之外的模型呢?

modelscope-funasr这个服务,怎么去掉除了ASR之外的模型呢?不指定路径也会自动下载

问答 2024-07-17 来自:开发者社区

modelscope-funasr使用docker进行服务部署,该如何切换使用这个模型?

modelscope-funasr使用docker进行服务部署,该如何切换使用SenseVoiceSmall模型?直接修改--model-dir icc/SenseVoiceSmall,貌似提示,找不到该模型

问答 2024-07-11 来自:开发者社区

modelscope-funasr部署的离线语音服务不支持 cam这种模型么 ?

modelscope-funasr部署的离线语音服务不支持 cam这种模型么 ?

问答 2024-07-11 来自:开发者社区

docker部署的modelscope-funasr语音在线识别服务支持UniASR模型不?

docker部署的modelscope-funasr语音在线识别服务支持UniASR模型不?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐