package com.netqin.hive.kpi;
import org.apache.hadoop.hive.service.HiveClient;
import org.apache.hadoop.hive.service.HiveServerException;
import org.apache.log4j.Logger;
import org.apache.thrift.TException;
import org.apache.thrift.protocol.TBinaryProtocol;
import org.apache.thrift.protocol.TProtocol;
import org.apache.thrift.transport.TSocket;
import org.apache.thrift.transport.TTransport;
import org.apache.thrift.transport.TTransportException;
public class AndroidKpi {
// Thrift Server IP Address
private static String HOST = "192.168.0.59";
// Thrift Server Port
private static int PORT = 10000;
public static final Logger logger = Logger.getLogger(AndroidKpi.class); // logger
public static void main(String[] args) {
TTransport transport = new TSocket(HOST, PORT);
TProtocol protocol = new TBinaryProtocol(transport);
HiveClient client = new HiveClient(protocol);
String tableName = "tableName";
try {
transport.open();
// Execute Hive Query Language Command
client.execute("select count(*) from "+tableName);
System.out.println(client.fetchOne());
//logger.debug("size "+client.fetchOne());
} catch (TTransportException e) {
logger.error(e.getMessage());
e.printStackTrace();
} catch (HiveServerException e) {
logger.error(e.getMessage());
e.printStackTrace();
} catch (TException e) {
logger.error(e.getMessage());
e.printStackTrace();
}
}
}
运行以上的程序所必需的Jar包:
- 大小: 4.3 KB
分享到:
相关推荐
Apache Hive 1.1.0 ( ) Apache Impala 2.12.0 ( ) 使用以下编译器和基本PHP类: Apache Thrift 0.12.0 ( )使用范例推荐的使用此库的方法是通过高效内存的迭代器从Hive / Impala获取结果,该迭代器将保持连接...
WebGUI是通过浏览器访问 Hive 本文主要介绍的就是第二种用户接口,直接进入正题。 1、Hive 安装: 1)hive的安装请参考网上的相关文章,测试时只在hadoop一个节点上安装hive即可。 2)测试数据data文件'\t'分隔:...
Hive编程指南中文版 2013年12月 第1版 ...第16章 Hive的Thrift服务 第17章 存储处理程序和NoSQL 第18章 安全 第19章 锁 第20章 Hive和Oozie整合 第21章 Hive和亚马逊网络服务系统 第22章 HCatalog 第23章 案例研究
大数据 虚拟机 Linux VM复习题库:题库包括了60题选择题、10题填空题、10题判断题、2题简答...(3)、远程模式:在服务器端启动一个 MetaStoreServer,客户端利用 Thrift 协议通过 MetaStoreServer 访问元数据库。(1 分)
Spark SQL是spark套件中一个模板,它将数据的计算任务通过SQL的形式转换成了RDD的计算,类似于Hive通过SQL的形式将数据的计算任务转换成了...4、标准化的连接方式,Spark SQL可以通过启动thrift Server来支持JD
pyhs2是一个python连接hive server/spark thrift server的客户端。
8.1 比较R 和MapReduce 集成的几种方法 8.2 R 基础知识 8.3 R 和Streaming 8.3.1 Streaming 和map-only R 技术点57 计算股票日平均值 8.3.2 Streaming、R 和完整的MapReduce 技术点58 计算股票的...
4.4 本章小结5 优化HDFS 处理大数据的技术5.1 处理小文件技术点24 使用Avro 存储大量小文件5.2 通过压缩提高数据存储效率技术点25 选择合适的压缩解码器技术点26 在HDFS、MapReduce、Pig 和Hive 中使用...
10.2.4 通过Ruby和Python使用SimpleDB 182 10.3 小结 183 第11章 MapReduce可扩展并行处理 185 11.1 理解MapReduce 186 11.1.1 找出每股最高价 188 11.1.2 加载历史NYSE市场数据到CouchDB 189 11.2 MapReduce...
通过使用由Linkis提供的REST / WS / JDBC之类的标准接口,上层应用程序可以轻松访问诸如MySQL / Spark / Hive / Presto / Flink等底层引擎,并实现用户资源(如统一变量)的互通,脚本,UDF,函数和资源文件同时...
Linkis与计算/存储引擎(Spark,Hive,Python和HBase)连接,公开REST / WS接口,并执行多语言作业(SQL,Pyspark,HiveQL和Scala)作为计算中间件。 Linkis基于微服务架构,提供了企业级的多租户隔离,资源管理和...
久比 Kyuubi是基于构建的高性能通用JDBC和SQL执行引擎。... 此外,Kyuubi通过引擎缓存提高了临时响应速度,并通过水平缩放和负载平衡增强了并发性。 它提供完整的身份验证和身份验证服务,以确保数据和元数据的安
此外,Kyuubi通过引擎缓存提高了临时响应速度,并通过水平缩放和负载平衡增强了并发性。 它提供了完整的身份验证和身份验证服务,以确保数据和元数据的安全性。 它提供强大的高可用性和负载平衡,以帮助您保证SLA...