文章 2025-01-06 来自:开发者社区

如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台

请教下各位大佬。我在 together AI上基于Qwen2-7B训练了一个模型。 我现在想要将这个模型部署到https://www.modelscope.cn/ 中。应该怎么做? lora方式进行微调的模型 模型是Qwen2-7B未对齐的模型

问答 2024-08-13 来自:开发者社区

按照Q5操作了,然后运行本地模型报错,请问ModelScope是少了什么步骤吗 ?

"按照Q5操作了,然后运行本地模型报错,请问ModelScope是少了什么步骤吗 ? "

问答 2024-08-06 来自:开发者社区

微调的模型就不按照提示词规定回答,怎么在ModelScope微调的时候 尽量不让能力丢失?

微调过后的模型,写了个提示词,在对话的最后总结小结,原模型对话完就可以,微调的模型就不按照提示词规定回答,怎么在ModelScope微调的时候 尽量不让能力丢失?

问答 2024-07-30 来自:开发者社区

想在PAI平台里离线调用NLP模型,发现平台不支持比较高的ModelScope版本,要怎么解决呢 ?

"想在PAI平台里离线调用NLP模型,发现平台不支持比较高的ModelScope版本,要怎么解决呢 ? "

问答 2024-07-30 来自:开发者社区

使用lora微调qwen-vl模型之后,输出的ModelScope全是乱码,这是什么情况?

使用lora微调qwen-vl模型之后,输出的ModelScope全是乱码,这是什么情况?

问答 2024-07-24 来自:开发者社区

加载一次模型进行并发推理,modelscope-funasr啥时候可以支持呀?

加载一次模型进行并发推理,modelscope-funasr啥时候可以支持呀?

问答 2024-07-24 来自:开发者社区

新模型生成出来后,要使用的话图中4个ModelScope文件都要替换原来的是吧?

"新模型生成出来后,要使用的话图中4个ModelScope文件都要替换原来的是吧? "

问答 2024-07-23 来自:开发者社区

awq量化模型,启动时,报图中警告,并且ModelScope模型推理速度非常慢,这应该怎么办?

"WARNING 07-16 14:51:24 config.py:244] awq quantization is not fully optimized yet. The speed can be slower than non-quantized models 使用awq量化模型,启动时,报图中警告,并且ModelScope模型推理速度非常慢,这应该怎么办?"

问答 2024-07-17 来自:开发者社区

运行了模型,但是出现了图中问题,打开local:8000,ModelScope模型该如何修改呢?

" 运行了模型,但是出现了图中问题,打开local:8000,是这样 。请问ModelScope模型该如何修改呢?"

问答 2024-07-11 来自:开发者社区

导出ONNX类型模型后,modelscope-funasr能运行这个导出的模型吗?

把“iic/speech_UniASR_asr_2pass-zh-cn-16k-common-vocab8358-tensorflow1-online”导出ONNX类型模型后,modelscope-funasr能运行这个导出的模型吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐