阿里云文档 2025-04-07

在Knative中使用GPU资源并开启共享GPU

如需在Knative中部署需要GPU资源的任务(如AI或高性能计算),您可以在Knative Service中指定GPU规格并创建GPU实例。您还可以开启共享GPU调度能力,允许多个Pod共享GPU,提升使用率。

阿里云文档 2025-03-06

如何使用GPU监控2.0监控ACK集群中的GPU资源

GPU监控2.0基于NVIDIA DCGM实现对集群GPU节点的全方位监控。本文介绍如何使用GPU监控2.0监控ACK集群中的GPU资源。

阿里云文档 2025-01-09

如何实现K8s集群以Serverless方式使用云上CPU/GPU资源

IDC中K8s集群通过Serverless方式使用阿里云弹性容器实例ECI运行业务Pod。您可以在K8s集群直接提交业务Pod,使Pod运行在ECI上,无需额外运维云上节点池,更加灵活、高效、弹性地使用云上CPU和GPU资源。本文介绍如何基于注册集群实现IDC中K8s集群以Serverless方式使用云上CPU和GPU资源。

阿里云文档 2024-11-01

在Knative中使用GPU资源并开启共享GPU

如需在Knative中部署AI任务、高性能计算等需要GPU资源的工作负载,您可以在Knative Service中指定GPU规格,创建GPU实例。您也可以为节点开启共享GPU调度能力,允许多个Pod共享同一个GPU,提高GPU使用率。

问答 2024-06-19 来自:开发者社区

定期向函数计算FC发送心跳请求的方式保持实例活跃,会导致资源常驻待命 GPU一直使用吗?

定期向函数计算FC发送心跳请求的方式保持实例活跃,会导致资源常驻待命 GPU一直使用吗?

问答 2024-06-19 来自:开发者社区

函数计算FC通过Serverless API方式需要多少资源(如GPU、内存)来支持10个并发任务?

函数计算FC通过Serverless API 方式 需要多少资源(如GPU、内存)来支持10个并发任务?

阿里云文档 2023-11-15

如何通过Docker或Kubernetes使用eGPU优化套件,进行GPU容器虚拟化和资源共享

本文以卷积神经网络模型ResNet50的训练和推理为例,为您介绍如何通过Docker或Kubernetes使用eGPU优化套件,进行GPU容器虚拟化和资源共享。本实践中的ResNet50模型基于NVIDIA官方开源代码DeepLearningExamples实现。

问答 2023-08-15 来自:开发者社区

函数计算FC如果设置了占用式的实例,但是没有访问流量,相关资源比如GPU、CPU是如何计费的?

函数计算FC如果设置了占用式的实例,但是没有访问流量,相关资源比如GPU、CPU是如何计费的?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等