问答 2024-07-29 来自:开发者社区

我们这边再填写算法备案的内容,请问一下我们OpenSearch LLM智能问答版的算法性能是多少?

我们这边再填写算法备案的内容,请问一下我们OpenSearch LLM智能问答版的算法性能是多少?(比如每秒生成多少字,每秒生成多少图片)

问答 2024-07-08 来自:开发者社区

咱们OpenSearch这边的LLM智能问答,使用的是什么大模型和模型算法?

咱们OpenSearch这边的LLM智能问答,使用的是什么大模型和模型算法,大模型和模型算法是否备案?(我们有LLM智能问答的客户在申请网信办的算法备案)

问答 2024-06-24 来自:开发者社区

通义听悟应用是如何利用大规模语言模型(LLM)进行基础算法探索和应用落地的?

通义听悟应用是如何利用大规模语言模型(LLM)进行基础算法探索和应用落地的?

文章 2024-05-06 来自:开发者社区

【大模型】关于减轻 LLM 训练数据和算法中偏差的研究

减轻LLM训练数据和算法中偏差的研究 引言 大语言模型(LLM)在自然语言处理领域取得了巨大的成功,但同时也存在着训练数据和算法中的偏差问题。这些偏差可能源自于数据的不平衡性、数据采样偏差、算法的选择和设计等多个方面。针对这些问题,正在进行着一系列的研究,旨在减轻LLM训练数据和算法中的偏差,提高模型的性能和鲁棒性。 数据采样与平衡性 一个重要的研究方向是解决训练数据中的不平衡性和采样偏...

【大模型】关于减轻 LLM 训练数据和算法中偏差的研究
文章 2023-07-19 来自:开发者社区

在LLM浪潮下,prompt工程师需要很懂算法吗?

一、背景提示工程是一门相对较新的学科,用于开发和优化提示以有效地将语言模型 (LM) 用于各种应用程序和研究主题。即时的工程技能有助于更好地理解大型语言模型 (LLM) 的功能和局限性。研究人员使用提示工程来提高 LLM 在广泛的常见和复杂任务(例如问题回答和算术推理)上的能力。开发人员使用提示工程来设计与 LLM 和其他工具交互的强大且有效的提示技术。在不同的应用场景,llm承担的角色不同,需....

在LLM浪潮下,prompt工程师需要很懂算法吗?
问答 2023-07-18 来自:开发者社区

在LLM浪潮下,prompt工程师需要很懂算法吗?

前言:阅读一篇技术文章,畅聊一个技术话题。本期文章推荐的是《本地生活场景下的探索之如何写好Prompt?》,一起来聊聊prompt与编程的话题吧。 文案:最近AI大神吴恩达推出prompt教程并给出了prompt构建三大原则,Prompt Engineering Guide也提出了诸多技巧,受AI技术的快速发展的影响,你觉得在LLM浪潮下,prompt工程师需要很懂算法吗?欢迎一起来聊一聊~ 本....

文章 2023-05-25 来自:开发者社区

绕开算力限制,如何用单GPU微调 LLM?这是一份「梯度累积」算法教程(2)

由于没有多的 GPU 可用于张量分片(tensor sharding),又能做些什么来训练具有更大批大小(batch size)的模型呢?其中一种解决方法就是梯度累积,可以通过它来修改前面提到的训练循环。什么是梯度积累?梯度累积是一种在训练期间虚拟增加批大小(batch size)的方法,当可用的 GPU 内存不足以容纳所需的批大小时,这非常有用。在梯度累积中,梯度是针对较小的批次计算的,并在多....

绕开算力限制,如何用单GPU微调 LLM?这是一份「梯度累积」算法教程(2)
文章 2023-05-25 来自:开发者社区

绕开算力限制,如何用单GPU微调 LLM?这是一份「梯度累积」算法教程

让算力资源用到极致,是每一位开发者的必修课。自从大模型变成热门趋势之后,GPU 就成了紧俏的物资。很多企业的储备都不一定充足,更不用说个人开发者了。有没有什么方法可以更高效的利用算力训练模型?在最近的一篇博客,Sebastian Raschka 介绍了「梯度累积」的方法,能够在 GPU 内存受限时使用更大 batch size 训练模型,绕开硬件限制。在此之前,Sebastian Raschka....

绕开算力限制,如何用单GPU微调 LLM?这是一份「梯度累积」算法教程

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

{"cardStyle":"productCardStyle","productCode":"aliyun","productCardInfo":{"productTitle":"文档智能&RAG,让你的AI大模型开启“外挂”之旅","productDescription":"本方案介绍了如何实现将文档智能和检索增强生成(RAG)结合起来构建强大的LLM知识库,包括清洗文档内容、文档内容向量化、问答内容召回后通过特定的Prompt,提供给LLM足够的上下文信息,以此来满足对于企业级文档类型知识库的问答处理。","productContentLink":"https://www.aliyun.com/solution/tech-solution/document-mind-rag-for-llm","isDisplayProductIcon":true,"productButton1":{"productButtonText":"方案详情","productButtonLink":"https://www.aliyun.com/solution/tech-solution/document-mind-rag-for-llm"},"productButton2":{"productButtonText":"一键部署","productButtonLink":"https://help.aliyun.com/document_detail/2845368.html"},"productButton3":{"productButtonText":"查看更多技术解决方案","productButtonLink":"https://www.aliyun.com/solution/tech-solution/"},"productPromotionInfoBlock":[{"$id":"0","productPromotionGroupingTitle":"解决方案推荐","productPromotionInfoFirstText":"10分钟在网站上增加一个 AI 助手","productPromotionInfoFirstLink":"https://www.aliyun.com/solution/tech-solution/add-an-ai-assistant-to-your-website-in-10-minutes","productPromotionInfoSecondText":"10 分钟构建 AI 客服并应用到网站、钉钉或微信中","productPromotionInfoSecondLink":"https://www.aliyun.com/solution/tech-solution/build-a-chatbot-for-your-website-or-chat-system"}],"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"","activityDescription":"","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock"}}