通义千问模型的 Context Cache 功能
您在使用文本生成模型时,不同的推理请求之间可能会有重合的输入内容(如多轮对话、针对一本书的多次提问等),Context Cache 技术可以将这些请求的公共前缀内容进行缓存,在推理时减少重复的运算量,提升响应速度,在不影响回复效果的情况下降低您的使用成本。
通义千问翻译模型
Qwen-MT模型是基于通义千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。
星尘模型Python接口。
环境依赖1.Python>=3.7安装pip install 直接通过git安装pip install xingchen==1.1.5工具调用请求示例from xingchen import Configuration, ApiClient, AcACompletionApiSub, \ A...
星尘模型HTTP接口。
Shell工具调用请求示例curl --location 'https://nlp.aliyuncs.com/v2/api/completions' \ --header 'Content-Type: application/json' \ --header 'X-AcA-DataInspectio...
星尘模型接口各参数详情介绍。
模型调用请求参数和响应结果参数说明如下:适配openai格式,实现快速接入人设信息通过系统消息(messages.role=system)设置参数类型为下划线分割,而非驼峰接口POST /v2/api/completions入参参数位置参数分组参数说明是否必填类型备注header认证Authoriz...
我的智能用 通义千问VL 模型,怎么通过 api 传入 图片信息,image_list 不生效
我的智能用 通义千问VL 模型,怎么通过 api 传入 图片信息,image_list 不生效
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
通义大模型
通义千问大模型家族全面升级更大参数规模模型首次面世,全新通义千问2.0版本欢迎体验。https://tongyi.aliyun.com/
+关注