文章 2024-09-04 来自:开发者社区

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

近年来,Transformer模型在机器学习领域引起了巨大轰动,但其内部运作机制对许多人来说仍然是一个谜。为了解决这一问题,研究人员开发了一种名为Transformer Explainer的交互式可视化工具,旨在帮助非专业人士通过GPT-2模型学习和理解Transformer。 Transformer Explainer是一个基于网络的交互...

文章 2024-04-01 来自:开发者社区

体验 AIGC 魅力!龙蜥社区邀请您从零开始部署运行 GPT-2 大语言模型

近日,开放原子开源基金会和龙蜥社区推出实践操作系统学习赛——「基于 ECS Intel 实例部署 GPT-2 大语言模型」。在本赛题中,您将基于 Alibaba Cloud Linux 操作系统的 Intel 实例,一步步部署运行 GPT-2 大语言模型,从 0 开始,部署 Python 运行环境,下载预训练模型,运行 GPT-2 模型,体验大语言模型的文本生成能力。本实验场景不涉及深奥的 AI....

体验 AIGC 魅力!龙蜥社区邀请您从零开始部署运行 GPT-2 大语言模型
问答 2023-03-27 来自:开发者社区

centos7本地运行GPT3-2.7B,报这个错误怎么解决啊?

centos7本地运行GPT3-2.7B,报这个错误怎么解决啊?torch版本1.13.0 本来以为是cuda版本的问题,原来是11.6不行,现在给升级到12.1还是不行

问答 2023-03-23 来自:开发者社区

我基于官网提供的多机多卡指令运行GPT3-2.7B的微调任务,发现主节点机器正常运行,副节点无法运行

请问GPT3-2.7B支持多机多卡微调吗,基于官网这个指令python -m torch.distributed.launch --nproc_per_node=${NUMBER_GPUS} --nnodes=2 --node_rank=0 --master_addr=${YOUR_MASTER_IP_ADDRESS} --master_port=${MASTER_PORT} ./train.p....

问答 2023-03-13 来自:开发者社区

在ModelScope中有没有同学在运行分布式GPT时遇到这个问题?

在ModelScope中有没有同学在运行分布式GPT时遇到这个问题?

问答 2023-02-13 来自:开发者社区

Cuda11.7, 显卡Nvidia A10,运行GPT3 2.7B模型时报错

服务器显卡型号:Nvidia A10,Cuda版本11.7,在读取GPT3-2.7B模型时报错: Unsupported gpu architecture 'compute_86' 查阅过相关资料,无论Cuda版本还是显卡型号,都应该支持8.6的算力,请问是什么原因报错呢?

问答 2022-11-14 来自:开发者社区

在运行gpt3做课程设计,发现modelscope跑不起来是怎么回事呀?

在运行gpt3做课程设计,发现modelscope跑不起来是怎么回事呀?from megatron import mpu ModuleNotFoundError: No module named 'megatron'

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。