MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术! 微信公众号|搜一搜:蚝油菜花 大家好,我是蚝油菜花,今天跟大家分享一下 MNN-LLM App 这个基于 MNN-LLM 框架开发的手机 AI 助手应用。在此之前,如果你想了解什么是 MNN,可以阅读《MNN:阿里开源...

深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识
随着大型语言模型(LLM)的飞速发展,以ChatGPT为代表的应用彻底改变了人机交互的方式。这些基于Transformer的模型在海量数据上进行预训练,能够生成连贯且全面的文本,在问答、文本摘要和对话等任务中表现出色,甚至有时超越了人类的能力。然而,这些强大的模型也存在一个显著的问题——幻觉...
大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多
在人工智能领域,大模型(LLM)正以惊人的速度发展,其在自然语言处理、图像识别等领域的应用已经取得了显著的成果。然而,谷歌和苹果的最新研究却揭示了一个令人惊讶的现象:这些大模型可能比我们想象的更加“聪明”,它们掌握的知识远超过它们所表现出来的。 研究者们发现,大模型在回答问题时...
多模态大模型LLM、MLLM性能评估方法
针对多模态大模型(LLM)和多语言大模型(MLLM)的性能评估方法,以下是一些关键的评估方法和标准: 模态融合率(MIR): 中国科学技术大学提出了模态融合率(MIR)来高效评估多模态预训练对齐质量。MIR能够准确对应模型在有监督微调后在下游测...
大模型强崩溃!Meta新作:合成数据有剧毒,1%即成LLM杀手
在人工智能领域,大型语言模型(LLMs)的发展日新月异,其在自然语言处理、文本生成等方面的卓越表现令人瞩目。然而,随着这些模型的广泛应用,一个潜在的问题逐渐浮出水面:当模型被训练于递归生成的数据时,它们可能会遭遇所谓的“模型崩溃”。 Meta的最新研究揭示了这一现象,当模...
文档智能 & RAG 让AI大模型更懂业务 —— 阿里云LLM知识库解决方案评测
随着数字化转型的深入发展,企业对于内部文档管理和知识提取的需求日益增长。传统的文档管理和信息检索方式已经难以满足现代企业的高效运作需求。阿里云推出的文档智能 & RAG(Retrieval-Augmented Generation)解决方案,旨在帮助企业构建强大的LLM(Large Language Model...
大模型体验体验报告:OpenAI-O1内置思维链和多个llm组合出的COT有啥区别?传统道家理论+中学生物理奥赛题测试,名不虚传还是名副其实?
一个月前,o1发布的时候,也让人提前体验过,自己却没有进行测试,同时还测试了canvas功能- 也是这周得以有机会使用,但也是忘了第一时间测试。主界面如下(不同模型的推荐功能不同): 既然是测试推力理论,当然不能只是简单的题目或者搜索答案。 测试一 因为最近在研究这块儿,读了不少东西才发现一些认知错误的部分,就像试试o1怎么样,毕竟有些东西 书本上写的很晦涩,一般都是口传的,看了那几个字也不...

前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
今天就遇到有点儿dt的问题,利用大模型顺利通了自定义的工具调用(并没有用到tools功能,而是通过prompt强制输出),单个单个的没问题哈,但是多个一起就出现问题了 我说“关闭电脑PC1, 打开第2台电脑” 它看不懂了,但我反过来说“打开第2台电脑,关闭电脑PC1”,它倒是很机智,顺利找到了对应的主机id并调用了正确的工具,反正我是一脸懵逼,这到底是个什么鬼?毕竟是个黑盒,...

前端大模型入门(三):编码(Tokenizer)和嵌入(Embedding)解析 - llm的输入
LLM的核心是通过对语言进行建模来生成自然语言输出或理解输入,两个重要的概念在其中发挥关键作用:Tokenizer 和 Embedding。本篇文章将对这两个概念进行入门级介绍,并提供了针对前端的js示例代码,帮助读者理解它们的基本原理/作用和如何使用。 1. 什么是Tokenizer? Tokenizer 是一种将自然语言文本转化为模型可以处理的数字表示的工具。自然...

前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用
利用大模型开发应用时,我们有时候要第一时间给出用户相应,也就是使用流式调用的方式。这时候前端处理响应,就需要特殊的处理:利用处理可读流的方式从响应中读取数据。 随着大语言模型(LLM)在各种应用中的广泛使用,如何高效地从服务器获取模型生成的长文本响应成为一个重要问题。传统的HTTP请求模式通常等待...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。