请问我想做spark structured 加载多个集群的Hive当做维表,怎么可以实现
这样可以实现吗 这样写不行 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群
请问spark jdbc方式访问Hive 为啥本地的可以,远程的就不可以
没有在加任何xx.xml文件,远程测试如此 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群
请问一下各位,spark临时表往hive查数据时,总是报临时表不存在
请问一下各位,spark临时表往hive查数据时,总是报临时表不存在(spark1.6版本)是我写入的格式有问题吗? 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击这里欢迎加入感兴趣的技术领域群。
请问一下 spark 可以直接读取hbase 数据嘛? 不通过 hive中间层
本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。点击链接欢迎加入感兴趣的技术领域群。
通过spark-thriftserver读取hive表执行sql时,tasks 数量怎么设置
我在使用spark-thriftserver的方式,通过beeline执行sql的时候,thriftserver会扫描所查询hive表的所有分区(hdfs上面的路径)然后有多少个路径,就会自动生成多少个task,这个task的数量可以调整吗?或者这个流程怎么优化?
请问:spark 处理 hive 仓库数据,用sparksql 好?还是hivesql好?sparksql 操作hive 的分区分桶表麻烦吗?
请问:spark 处理 hive 仓库数据,用sparksql 好?还是hivesql好?sparksql 操作hive 的分区分桶表麻烦吗?
请问一下,livy配置spark,操作hive的表,..我现在黑框pyspark中,可以操作hive的表, livy的livy.repl.enableHiveContext = true
还是没有生效有大佬遇到过这个坑吗,可以提示一下吗?
大佬们咨询个问题,就是使用Spark On Hive时,动态的将数据插入到Hive中,但是在Hive的数据表下会有很多文件,这个可以怎么设置一下呢
大佬们咨询个问题,就是使用Spark On Hive时,动态的将数据插入到Hive中,但是在Hive的数据表下会有很多文件,这个可以怎么设置一下呢
Zeppelin 使用Spark sql 执行show databases 只显示default 数据库, 查询不到hive数据库
版本HDP3.0 Spark2.0 ,感觉Spark 数据存储和Hive数据存储不是同一个地方, 也尝试过讲hive/conf/hive-site.xml复制到spark2/conf/ 以及 zeepelin/conf/ 并重启服务,还是查询不到hive下面的数据库
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。