问答 2023-11-13 来自:开发者社区

魔搭swift对Baichuan2-13B-Chat-4bits全量微调(full),保存模型报错

使用魔搭swift对Baichuan2-13B-Chat-4bits全量微调(full),保存模型的时候报错:NotImplementedError: You are calling save_pretrained on a 4-bit converted model. This is currently not supported

问答 2023-10-31 来自:开发者社区

使用魔搭swift对qwen-14b-chat-int8微调,官方脚本,报错

使用魔搭来下载的模型,测试模型可以正常使用。安装配置最新的modelscope/swift , 然后使用提供的example里面的scripts来进行测试,运行qwen-14b-chat-int8/qlora/sft.sh , 装载完模型过后,报错,信息如下: Loading checkpoint shards: 100%|████████████████████████████████████....

问答 2023-09-21 来自:开发者社区

函数计算FC中的模型是什么呀?我在魔搭利用Swift微调的模型不知道怎么部署到函数计算,可以交流一下

问题一:请问 函数计算FC中的模型是什么呀?我在魔搭利用Swift微调的模型不知道怎么部署到函数计算,可以交流一下吗问题二:请问是在哪里部署呀?我在这里没看到呢

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

开发与运维

集结各类场景实战经验,助你开发运维畅行无忧

+关注