问答 2019-10-24 来自:开发者社区

请问我想做spark structured 加载多个集群的Hive当做维表,怎么可以实现

这样可以实现吗 这样写不行 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群

问答 2019-10-24 来自:开发者社区

请问spark jdbc方式访问Hive 为啥本地的可以,远程的就不可以

没有在加任何xx.xml文件,远程测试如此 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群

问答 2019-10-14 来自:开发者社区

请问一下各位,spark临时表往hive查数据时,总是报临时表不存在

请问一下各位,spark临时表往hive查数据时,总是报临时表不存在(spark1.6版本)是我写入的格式有问题吗? 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢迎加入感兴趣的技术领域群。

问答 2019-09-23 来自:开发者社区

请问一下 spark 可以直接读取hbase 数据嘛? 不通过 hive中间层

本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群。

问答 2019-09-12 来自:开发者社区

spark读hive数据报错的。hdp3.0的?

spark读hive数据报错的。hdp3.0的?把语句单独拿出来在hive里面跑是没问题的

问答 2019-07-05 来自:开发者社区

通过spark-thriftserver读取hive表执行sql时,tasks 数量怎么设置

我在使用spark-thriftserver的方式,通过beeline执行sql的时候,thriftserver会扫描所查询hive表的所有分区(hdfs上面的路径)然后有多少个路径,就会自动生成多少个task,这个task的数量可以调整吗?或者这个流程怎么优化?

问答 2019-05-23 来自:开发者社区

请问:spark 处理 hive 仓库数据,用sparksql 好?还是hivesql好?sparksql 操作hive 的分区分桶表麻烦吗?

请问:spark 处理 hive 仓库数据,用sparksql 好?还是hivesql好?sparksql 操作hive 的分区分桶表麻烦吗?

问答 2019-05-17 来自:开发者社区

请问一下,livy配置spark,操作hive的表,..我现在黑框pyspark中,可以操作hive的表, livy的livy.repl.enableHiveContext = true

还是没有生效有大佬遇到过这个坑吗,可以提示一下吗?

问答 2019-03-28 来自:开发者社区

大佬们咨询个问题,就是使用Spark On Hive时,动态的将数据插入到Hive中,但是在Hive的数据表下会有很多文件,这个可以怎么设置一下呢

大佬们咨询个问题,就是使用Spark On Hive时,动态的将数据插入到Hive中,但是在Hive的数据表下会有很多文件,这个可以怎么设置一下呢

问答 2019-01-21 来自:开发者社区

Zeppelin 使用Spark sql 执行show databases 只显示default 数据库, 查询不到hive数据库

版本HDP3.0 Spark2.0 ,感觉Spark 数据存储和Hive数据存储不是同一个地方, 也尝试过讲hive/conf/hive-site.xml复制到spark2/conf/ 以及 zeepelin/conf/ 并重启服务,还是查询不到hive下面的数据库

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问