阿里云文档 2024-11-04

基于ModelScope模型库和GPU实例闲置计费功能低成本快速搭建LLM应用

LLM(Large Language Model)是指大型语言模型,是一种采用深度学习技术训练的具有大量参数的自然语言处理模型。您可以基于ModelScope模型库和函数计算GPU实例的闲置计费功能低成本快速搭建LLM应用实现智能问答。

问答 2024-08-16 来自:开发者社区

.ModelScope从modelhub直接下载的模型需要通过vllm部署的时候需要在什么地方设置?

ValueError: Loading /home/admin/.cache/modelscope/hub/tclf90/glm-4-9b-chat-GPTQ-Int8/ requires you to execute the configuration file in that repo on your local machine. Make sure you have read the co....

阿里云文档 2024-08-13

在ACK中快速体验大语言模型

部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。

问答 2024-06-09 来自:开发者社区

ModelScope模型已经下载到缓存中了,我应该如何设置参数?

ModelScope模型已经下载到缓存中了,我应该如何设置参数,让modelscope不再访问互联网呀?

问答 2024-05-23 来自:开发者社区

modelscope-funasr导出onnx模型的时候可以设置精度吗?默认我看导出的是int64

modelscope-funasr导出onnx模型的时候可以设置精度吗?默认我看导出的是int64

问答 2024-05-23 来自:开发者社区

使用modelscope-funasr的这个模型 但是在执行时提示这个错误 是需要设置模型版本号嘛?

使用modelscope-funasr的punc_ct-transformer_cn-en-common-vocab471067-large-onnx模型 但是在执行时提示这个错误 是需要设置模型版本号嘛?

问答 2024-05-22 来自:开发者社区

怎么知道图片质量检测ModelScope模型的设置呢?

"不同的模型,导出代码,还是差别比较大,比如不同模型输入的数据格式大小,model的一些属性设定,怎么知道图片质量检测ModelScope模型的设置呢? "

问答 2024-05-15 来自:开发者社区

ModelScope中,离线模型是不是需要设置 环境变量 ?

ModelScope中,离线模型是不是需要设置 环境变量 HF_HUB_OFFLINE=1,才可以识别本地的config文件?

问答 2024-05-15 来自:开发者社区

ModelScope中,这个方法如果输入超过模型最大 如何设置截断呢 ?

inference_stream ModelScope中,这个方法如果输入超过模型最大 如何设置截断呢 ?

问答 2024-05-14 来自:开发者社区

modelscope-funasr说话人识别模型的阈值参数应该怎么设置?

modelscope-funasr说话人识别模型的阈值参数应该怎么设置?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐