阿里云文档 2024-11-04

基于ModelScope模型库和GPU实例闲置计费功能低成本快速搭建LLM应用

LLM(Large Language Model)是指大型语言模型,是一种采用深度学习技术训练的具有大量参数的自然语言处理模型。您可以基于ModelScope模型库和函数计算GPU实例的闲置计费功能低成本快速搭建LLM应用实现智能问答。

阿里云文档 2024-11-04

基于ModelScope模型库和GPU实例闲置计费功能低成本构建Google Gemma服务

Google在2024年02月21日正式推出了首个开源模型族Gemma,并同时上架了2b和7b两个版本。您可以使用函数计算的GPU实例以及函数计算的闲置模式低成本快速部署Gemma模型服务。

问答 2024-08-21 来自:开发者社区

modelscope-funasr的 这俩个模型在说话人之外的方面有差异点嘛?

modelscope-funasr的 这俩个模型在说话人之外的方面有差异点嘛? paraformer-zh模型和paraformer-zh-spk模型,。paraformer-zh配合cam++推理和paraformer-zh-spk单独推理相比,哪个会更好呢?

阿里云文档 2024-08-13

在ACK中快速体验大语言模型

部署模型时,您可以根据自身需求选择模型来源以及部署模型的平台。本文以Qwen1.5-4B-Chat模型、GPU类型为T4卡为例,演示如何在ACK中快速部署ModelScope模型、HuggingFace模型及本地模型。

问答 2024-05-05 来自:开发者社区

modelscope-funasr离线模型看文档写支持区分多个说话人,有相关的示例程序吗?

modelscope-funasr离线模型看文档写支持区分多个说话人,没看到相关的示例程序。有跑起来的吗?

问答 2024-03-27 来自:开发者社区

modelscope-funasr现在最新的模型,可以识别录音的时候,直接区分说话人了吗?

modelscope-funasr现在最新的模型,可以识别录音的时候,直接区分说话人了吗?

问答 2024-03-27 来自:开发者社区

modelscope-funasr有哪个VAD模型可以获得说话的语义端点的?

modelscope-funasr有哪个VAD模型可以获得说话的语义端点的?我现在面临一个问题是,当我向麦克风说话,中间有思考停顿的时候,现有VAD就会把语音切割成两段,送给ASR。我希望类似“我想一下哈,唔...(这里停顿了一下来思考),是这样的,我有一个想法”,能够整段送入ASR。这个有什么VAD模型或者其他的方案吗?我需要做语音对话机器人,如果切割成两个片段,那么我就会将前半句话送入LLM....

问答 2024-03-20 来自:开发者社区

modelscope-funasr哪个模型支持带时戳推理吗,不需要说话人识别?

modelscope-funasr哪个模型支持带时戳推理吗,不需要说话人识别?是仅基于modelscope调用,还是直接funasr调用加载?

问答 2024-03-06 来自:开发者社区

modelscope-funasr服务部署使用方法下,是否有模型可以支持说话人分离后识别?

modelscope-funasr服务部署使用方法(docker配置runtime)下,是否有模型可以支持说话人分离后识别(例如speech_paraformer-large-vad-punc-spk_asr_nat-zh-cn)?好像并不能直接在--model-dir参数里指定,我理解这个模型没有onnx。这是否意味着不能在服务部署中使用,是否有支持计划呢?

阿里云文档 2024-01-23

通过ModelScope开源Embedding模型将文本转换为向量

本文介绍如何通过ModelScope魔搭社区中的文本向量开源模型将文本转换为向量,并入库至向量检索服务DashVector中进行向量检索。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐