问答 2024-08-14 来自:开发者社区

在modelscope-funasr中使用加载模型比如下慢非常多的情况,如何解决?

在modelscope-funasr中使用funasr1.1.4+modelscope1.17.0加载模型比funasr1.0.19+1.9.3慢非常多的情况,如何解决?

阿里云文档 2024-08-13

在ACK中快速体验大语言模型

部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。

问答 2024-08-07 来自:开发者社区

modelscope-funasr使用itn的时候是否需要加载模型呀?

modelscope-funasr使用itn的时候是否需要加载模型呀?我直接使用res = model.generate(input=args.test_file,hotword=hotword, use_itn=True),似乎itn没有生效

问答 2024-07-31 来自:开发者社区

modelscope-funasr加载本地模型的时候报错应该怎么解决呢?

modelscope-funasr加载本地模型的时候报错应该怎么解决呢?xxxxx is not registered

问答 2024-07-17 来自:开发者社区

modelscope-funasr怎么通过automodel()加载uniasr的方言模型?

modelscope-funasr怎么通过automodel()加载uniasr的方言模型?

问答 2024-07-11 来自:开发者社区

modelscope-funasr分角色语音识别 为什么改成加载本地模型,还是很慢?

modelscope-funasr分角色语音识别 为什么改成加载本地模型,还是很慢?

问答 2024-07-01 来自:开发者社区

ModelScope中,用pipeline加载模型,进行推理,为啥第一推理耗时非常高后面就正常了?

ModelScope中,用pipeline加载模型,进行推理,为啥第一推理耗时非常高后面就正常了?

问答 2024-06-09 来自:开发者社区

ModelScope加载所有模型后,确实可以运行,但是报错怎么办?

ModelScope加载所有模型后,确实可以运行,但是报错?RuntimeError: FunASRPipeline: GenericFunASR: Trying to create tensor with negative dimension -1: [-1, 516]

问答 2024-06-09 来自:开发者社区

ModelScope使用swfit,加载微调后模型,路径如何指定?

ModelScope使用swfit,加载微调后模型,路径如何指定? 按照实例执行后报错

问答 2024-06-09 来自:开发者社区

请问下我使用ModelScope vllm加载qwen1.5的模型,这哪里不太对呢?

请问下我使用ModelScope vllm加载qwen1.5的模型,不管我使用14B-chat还是7B-chat,显存都是72G,这哪里不太对呢?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

X
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等