阿里云文档 2025-04-01

在EMR Serverless Spark中实现HBase读写操作

基于HBase官方提供的Spark Connector,EMR Serverless Spark可以在开发时添加对应的配置来连接HBase。本文为您介绍在EMR Serverless Spark环境中实现HBase的数据读取和写入操作。

阿里云文档 2025-03-31

在EMR Serverless Spark中实现MongoDB读写操作

基于MongoDB官方提供的Spark Connector,EMR Serverless Spark可以在开发时添加对应的配置来连接MongoDB。本文为您介绍在EMR Serverless Spark环境中实现MongoDB的数据读取和写入操作。

阿里云文档 2025-03-28

欠费及到期说明

账号欠费和工作空间包年包月配额到期都会影响任务的正常运行,您可以在规定时间内进行充值或续费,避免对您的业务造成影响。

阿里云文档 2025-03-27

将Prometheus数据投递至大数据计算服务MaxCompute

当您需要将某个Prometheus实例的数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至大数据计算服务MaxCompute处理。MaxCompute能帮助您结合其他的数据源执行大数据计算服务,加工后用于报表分析等。

阿里云文档 2025-03-26

新用户免费试用

完成阿里云账号注册及实名认证后,即可免费体验EMR Serverless StarRocks服务(无需提前购买)。在试用期间,您可免费使用一定额度的计算资源及标准存储空间,助力您体验StarRocks极速分析能力,快速验证业务需求。

文章 2024-08-24 来自:开发者社区

大数据及AI典型场景实践问题之基于MaxCompute构建Noxmobi全球化精准营销系统如何解决

问题一:阿里云MaxCompute在大数据案例实践中有哪些显著优势? 阿里云MaxCompute在大数据案例实践中有哪些显著优势? 参考回答: 阿里云MaxCompute在大数据案例实践中展现了显著优势,包括其快速、完全托管的TB/PB级数据仓库解决方案,能够为用户提供完善的数据导入方案以及多种经典的分布式计算模型。这些特性使得MaxCompute能够...

大数据及AI典型场景实践问题之基于MaxCompute构建Noxmobi全球化精准营销系统如何解决
问答 2024-07-11 来自:开发者社区

大数据计算MaxCompute安装oss2构建pyodps第三方包成功后导入云平台后报错,如何解决?

大数据计算MaxCompute使用Docker下载quay.io/pypa/manylinux2014_x86_64镜像容器 安装 oss2 构建pyodps第三方包成功后导入云平台后报错,如何解决?OSError:Cannot load native module ‘Crypto.Cipher._raw_ecb‘ 排查原因为 from Crypto.Cipher import AES 执行时导....

问答 2024-06-12 来自:开发者社区

大数据计算MaxCompute这种mapjoin构建hash table时间很长,有什么优化方向吗?

大数据计算MaxCompute这种mapjoin构建hash table时间很长,有什么优化方向吗?

问答 2023-07-25 来自:开发者社区

大数据计算MaxCompute现在构建的UDF,需要调用一个阿里云内网的api我该如何获取?

问题1:你好,我大数据计算MaxCompute现在构建的UDF,需要调用一个阿里云内网的api,但是现在设置好了api侧设置了阿里云的内网ip,我通过UDF调用的时候提示连接被拒绝,UDF可以调用阿里云的内网IP的API吗?或者如果我想在UDF调用一个外网服务的api的时候,我想在被调用方增加Maxcompute的IP白名单,我如何获取Maxcompute的ip列表呢问题2:那如果是访问阿里云的....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

云原生大数据计算服务 MaxCompute大数据相关内容

云原生大数据计算服务 MaxCompute更多大数据相关

云原生大数据计算服务 MaxCompute您可能感兴趣

产品推荐

大数据计算 MaxCompute

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

+关注