Spark 2.1.0与CarbonData 1.0.0集群模式部署及使用入门指南

Size: px
Start display at page:

Download "Spark 2.1.0与CarbonData 1.0.0集群模式部署及使用入门指南"

Transcription

1 Spark 与 CarbonData 集群模式部署及使用入门指南 本文作者 : 李寅威, 从事大数据 机器学习方面的工作, 目前就职于 CVTE 联系方式 : 微信 (coridc), 邮箱 ( @qq.com) 原文链接 : Spark CarbonData1.0.0 集群模式部署及使用入门 1 引言 Apache CarbonData 是一个面向大数据平台的基于索引的列式数据格式, 由华为大数据团队贡献给 Apache 社区, 目前最新版本是 版 介于目前主流大数据组件应用场景的局限性,Car bondata 诞生的初衷是希望通过仅保存一份数据来满足不同的应用场景, 如 : OLAP 顺序存取 (Sequential Access) 随机存取 (Random Access) CarbonData 也被评为 2016 年的 BLACKDUCK 奖, 有关 CarbonData 的相关资料如下 : 官网地址 : Github: Mailing list: dev@carbondata.incubator.apache.org cwiki: Jira 地址 : 本文主要介绍 Spark CarbonData1.0.0 集群模式部署流程, 并辅以一个小案例来讲解如何在 Spark shell 下使用 CarbonData 2 准备工作 2.1 集群规划 id hostname mem cpu storage 1 master 32G Intel(R) Core(TM) i GHz 2 slave1 32G Intel(R) Core(TM) i GHz SATA3 7200RPM 4T SATA3 7200RPM 8T 1 / 21

2 id hostname mem cpu storage 3 slave2 32G Intel(R) Core(TM) i GHz 4 slave3 32G Intel(R) Core(TM) i GHz 5 slave4 32G Intel(R) Core(TM) i GHz SATA3 7200RPM 8T SATA3 7200RPM 8T SATA3 7200RPM 8T 2.2 系统环境 操作系统 下载地址 : 建议版本 :Unix-like environment (Linux, Mac OS X) 版本查看 : # 示例 (CentOS) [hadoop@master ~]$ cat /etc/redhat-release CentOS release 6.8 (Final) JDK 下载地址 : 建议版本 :JDK 版本查看 : [hadoop@master ~]$ java -version java version "1.8.0_60" Git 下载地址 : 建议版本 : 无版本查看 : 2 / 21

3 ~]$ git --version git version Maven 下载地址 : 建议版本 :3.0.4 版本查看 : [hadoop@master ~]$ mvn -v Apache Maven (bb52d8502b132ec0a5a3f4c09453c dc5; T00:41:47+0 8:00) Maven home: /opt/maven Hadoop 下载地址 : 建议版本 :2.7.2 版本查看 : [hadoop@master ~]$ hadoop version Hadoop [hadoop@master ~]$ echo $HADOOP_HOME /opt/hadoop Scala 下载地址 : 建议版本 :2.11.x 版本查看 : [hadoop@master ~]$ scala -version Scala code runner version Copyright , LAMP/EPFL 3 / 21

4 Spark 下载地址 : 建议版本 :2.1.0 部署模式 :Standalone/YARN 版本查看 : [hadoop@master spark-2.1.0]$./bin/spark-submit --version Welcome to / / / / \ \/ _ \/ _ `/ / '_/ / /. /\_,_/_/ /_/\_\ version /_/ Using Scala version , Java HotSpot(TM) 64-Bit Server VM, 1.8.0_60 [hadoop@master ~]$ echo $SPARK_HOME /opt/spark Thrift 下载地址 : 建议版本 :0.9.3 版本查看 : [hadoop@master ~]$ thrift -version Thrift version 编译及部署 3.1 编译 Step 1: 源码下载 $ git clone carbondata 4 / 21

5 Step 2: 修改 Maven 私有仓库地址 ( 可选 ) 由于网络原因, 从 Maven 中央仓库下载 jar 包可能非常慢, 大家可根据自己的实际情况修改为企业内部私有仓库或阿里云等外部源, 如 : # 修改 conf/setting.xml 文件 <mirrors> <mirror> <id>nexus</id> <name>nexus</name> <url> <mirrorof>*</mirrorof> </mirror> </mirrors> Step 3: 编译打包 [hadoop@master ~]$ cd carbondata [hadoop@master carbondata]$ mvn clean package -DskipTests -Pspark-2.1 -Dspark.version= Phadoop 在编译打包的过程中,maven 会自动下载所依赖的 jar 包, 但可能还会有部分 jar 包无法下载成功导致打包失败的情况, 此时需要我们手动去网上下载并将对应的 jar 包放到 Maven localrepository 的对应目录下并重新执行上述命令, 执行成功后, 会出现以下提示 : [INFO] [INFO] Reactor Summary: [INFO] [INFO] Apache CarbonData :: Parent... SUCCESS [ s] [INFO] Apache CarbonData :: Common... SUCCESS [16:82 min] [INFO] Apache CarbonData :: Core... SUCCESS [03:23 min] [INFO] Apache CarbonData :: Processing... SUCCESS [ s] [INFO] Apache CarbonData :: Hadoop... SUCCESS [ s] [INFO] Apache CarbonData :: Spark Common... SUCCESS [ s] [INFO] Apache CarbonData :: Spark2... SUCCESS [ s] [INFO] Apache CarbonData :: Spark Common Test... SUCCESS [ s] [INFO] Apache CarbonData :: Assembly... SUCCESS [ s] [INFO] Apache CarbonData :: Spark2 Examples... SUCCESS [ s] [INFO] [INFO] BUILD SUCCESS 5 / 21

6 [INFO] [INFO] Total time: 29:42 min [INFO] Finished at: T09:26:38+08:00 [INFO] Final Memory: 211M/2513M [INFO] 集群模式部署 注 : 本节是基于 Spark Standalone 模式的配置部署,Spark on Yarn 模式下的配置部署类似但不完全相同, 具体可参照文档 : - Installing and Configuring CarbonData on Standalone Spark Cluster - Installing and Configuring CarbonData on Spark on YARN Cluster 部署步骤如下 : Step 1: 复制 CarbonData jar 包 # 创建目录并拷贝 [hadoop@master spark-2.1.0]$ mkdir $SPARK_HOME/carbonlib [hadoop@master spark-2.1.0]$ cp -r ~/carbondata/assembly/target/scala-2.11/carbondata_ incubating-shade-hadoop2.7.2.jar./carbonlib # 编辑环境变量 [hadoop@master ~]$ vi /opt/spark-2.1.0/conf/spark-env.sh # 添加以下配置 export SPARK_CLASSPATH=$SPARK_CLASSPATH:${SPARK_HOME/carbonlib/* Step 2: 配置 carbon.properties # 拷贝至 spark conf 目录 [hadoop@master ~]$ cp ~/carbondata/conf/carbon.properties.template /opt/spark-2.1.0/conf/ carbon.properties # 修改配置 #Mandatory. Carbon Store path carbon.storelocation=hdfs://master:9000/opt/carbonstore #Base directory for Data files carbon.ddl.base.hdfs.url=hdfs://master:9000/opt/data 6 / 21

7 #lock 文件存储方式 carbon.lock.type=hdfslock Step 3: 配置 spark-defaults.conf ~]$ vi /opt/spark-2.1.0/conf/spark-defaults.conf # 添加以下配置 spark.executor.extrajavaoptions on.properties spark.driver.extrajavaoptions n.properties -Dcarbon.properties.filepath=/opt/spark-2.1.0/conf/carb -Dcarbon.properties.filepath=/opt/spark-2.1.0/conf/carbo Step 4: 分发至集群各节点 # Spark - conf [hadoop@master ~]$ scp -r /opt/spark-2.1.0/conf/ hadoop@slave1:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/conf/ hadoop@slave2:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/conf/ hadoop@slave3:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/conf/ hadoop@slave4:/opt/spark-2.1.0/ # Spark - carbonlib [hadoop@master ~]$ scp -r /opt/spark-2.1.0/carbonlib/ hadoop@slave1:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/carbonlib/ hadoop@slave2:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/carbonlib/ hadoop@slave3:/opt/spark-2.1.0/ [hadoop@master ~]$ scp -r /opt/spark-2.1.0/carbonlib/ hadoop@slave4:/opt/spark-2.1.0/ 4 数据准备 4.1 数据描述 为更聚焦于整个流程, 我们的数据集仅含一张表, 共 21 个字段, 详细信息如下 : 7 / 21

8 ID COLUMN TYPE CARDINALITY COMMENT 1 id BIGINT TOTAL_NUM ID 2 order_code STRING TOTAL_NUM 订单编号 3 sales_area_id INT 100 销售区域 ID 4 sales_id INT 销售人员 ID 5 order_inputer INT 100 录单人员 ID 6 pro_type STRING 1000 产品型号 7 currency INT 50 订单币种 8 exchange_rate DECIMAL 1000 当前汇率 9 unit_cost_price DECIMAL 成本单价 10 unit_selling_pric e DECIMAL 销售单价 11 order_num INTEGER 1000 订单数量 12 order_amount DECIMAL / 订单金额 13 order_discount DOUBLE 9 订单折扣 14 order_account_a mount DECIMAL / 实际金额 15 order_time TIMESTAMP 下单时间 16 delivery_channel INT 80 发货渠道 ID 17 delivery_address STRING 发货地址 18 recipients STRING 收件人 19 contact STRING 联系方式 20 delivery_date DATE 发货日期 21 comments STRING 备注 4.2 数据生成 我们编写一段程序来解决数据批量生成的问题, 为方便有兴趣的童鞋直接使用, 所有代码都写在一个 Java 类中, 相关配置 ( 如数据量等 ) 可直接在代码中修改 当然大家也完全可以用自己的数据进行测试 数据生成的代码如下 ( 注 : 需使用 JDK1.8 及以上版本编译运行 ): package com.cvte.bigdata.pt; 8 / 21

9 import java.io.ioexception; import java.nio.file.files; import java.nio.file.paths; import java.nio.file.standardopenoption; import java.time.localdate; import java.time.localdatetime; import java.time.format.datetimeformatter; import java.util.uuid; import java.util.concurrent.arrayblockingqueue; public class BatchDataGenerate implements Runnable { ); // total record private final Integer TOTAL_NUM = 1 * * 10000; // batch size of writing to file and echo infos to console private final Integer BATCH_SIZE = 10 * 10000; // capacity of the array blocking queue private final Integer QUEUE_CAPACITY = 100 * 10000; // csv file path that save the data private final String DEST_FILE_PATH = "E:\\order_detail.csv"; // the queue which the write thread write into and the read thread read from private ArrayBlockingQueue<String> queue = new ArrayBlockingQueue<>(QUEUE_CAPACITY // the cardinalities of the fields(dimensions) which means the distinct // number of a column private final int CARDINALITY_SALES_AREA_ID = 100; private final int CARDINALITY_SALES_ID = 10000; private final int CARDINALITY_ORDER_INPUTER = 100; private final int CARDINALITY_PRO_TYPE = 1000; private final int CARDINALITY_CURRENCY = 50; private final int CARDINALITY_EXCHANGE_RATE = 1000; private final int CARDINALITY_UNIT_COST_PRICE = 10000; private final int CARDINALITY_UNIT_SELLING_PRICE = 10000; private final int CARDINALITY_ORDER_NUM = 1000; private final int CARDINALITY_ORDER_DISCOUNT = 9; private final int CARDINALITY_ORDER_TIME = ; private final int CARDINALITY_DELIVERY_CHANNEL = 80; private final int CARDINALITY_DELIVERY_ADDRESS = ; private final int CARDINALITY_RECIPIENTS = ; private final int CARDINALITY_CONTACT = ; private final int CARDINALITY_DELIVERY_DATE = 10000; private final int CARDINALITY_COMMENTS = 9 / 21

10 public void run() { try { if ("tgenerate".equals(thread.currentthread().getname())) { // data generating thread generatedata(); else if ("twrite".equals(thread.currentthread().getname())) { // data writing thread savedatatofile(); catch (InterruptedException e) { e.printstacktrace(); catch (IOException e) { e.printstacktrace(); /** generating data for table order_details and called by thread InterruptedException void liyinwei 2017 年 3 月 9 日下午 7:19:16 */ private void generatedata() throws InterruptedException { for (int i = 0; i < TOTAL_NUM; i++) { StringBuffer sb = new StringBuffer(); sb.append(i + 1) // 2. 订单编号.append(",").append(UUID.randomUUID()) // 3. 销售区域 ID.append(",").append((i+3) % CARDINALITY_SALES_AREA_ID) // 4. 销售人员 ID.append(",").append((i + 4) % CARDINALITY_SALES_ID) // 5. 录单人员 ID.append(",").append((i + 5) % CARDINALITY_ORDER_INPUTER) // 6. 产品型号.append(",").append("PRO_TYPE_" + (i + 6) % CARDINALITY_PRO_TYPE) // 7. 订单币种.append(",").append((i + 7) % CARDINALITY_CURRENCY) // 8. 当前汇率.append(",").append((i + 8) % CARDINALITY_EXCHANGE_RATE) // 9. 成本单价.append(",").append((i + 9) % CARDINALITY_UNIT_COST_PRICE) // 10. 销售单价.append(",").append((i + 10) % CARDINALITY_UNIT_SELLING_PRICE) 10 / 21

11 // 11. 订单数量.append(",").append((i + 11) % CARDINALITY_ORDER_NUM) // 12. 订单金额.append(",").append(((i + 10) % CARDINALITY_UNIT_SELLING_PRICE) * ((i + 11) % CA RDINALITY_ORDER_NUM)) // 13. 订单折扣.append(",").append(String.format("%.2f", (i + 13) % CARDINALITY_ORDER_DISCOU NT * 0.1)) // 14. 实际金额.append(",").append(String.format("%.2f", ((i + 10) % CARDINALITY_UNIT_SELLING_PRICE) * ((i + 11) % CARDINALITY_OR DER_NUM) * ((i + 13) % CARDINALITY_ORDER_DISCOUNT * 0.1))) // 15. 下单时间.append(",").append(LocalDateTime.now().plusSeconds(i % CARDINALITY_ORDER_TIME).format(DateTimeFormatter.ofPattern("yyyy-MM-dd hh:mm:ss"))) // 16. 发货渠道 ID.append(",").append((i + 16) % CARDINALITY_DELIVERY_CHANNEL) // 17. 发货地址.append(",").append("DELIVERY_ADDRESS_" + (i + 17) % CARDINALITY_DELIVERY_AD DRESS) // 18. 收件人.append(",").append("RECIPIENTS_" + (i + 18) % CARDINALITY_RECIPIENTS) // 19. 联系方式.append(",").append( l + (i + 19) % CARDINALITY_CONTACT) // 20. 发货日期.append(",").append(LocalDate.now().plusDays(i % CARDINALITY_DELIVERY_DATE)) // 21. 备注.append(",").append("RECIPIENTS_" + (i + 21) % CARDINALITY_COMMENTS); queue.put(sb.tostring()); if (i % BATCH_SIZE == 0) { System.out.println(i + " records have generated successfully."); System.out.println("current queue length is: " + queue.size()); /** writing data from array block queue to file and called by thread IOException void 11 / 21

12 liyinwei 2017 年 3 月 9 日下午 8:16:59 */ private void savedatatofile() throws InterruptedException, IOException { int i = 0; StringBuffer sb = new StringBuffer(); while (true) { sb.append(queue.take()).append("\n"); i++; if (i % BATCH_SIZE == 0) { Files.write(Paths.get(DEST_FILE_PATH), sb.tostring().getbytes(), StandardOpenOption.CREATE, StandardOpenOption.APPEND); sb.setlength(0); System.out.println(i + " records have written to file successfully."); System.out.println("current queue length is: " + queue.size()); public static void main(string[] args) { BatchDataGenerate batchdatagenerate = new BatchDataGenerate(); // data generating thread Thread thread1 = new Thread(batchDataGenerate, "tgenerate"); // data writing thread Thread thread2 = new Thread(batchDataGenerate, "twrite"); thread1.start(); thread2.start(); 以上代码的逻辑比较简单, 构造两个线程, 一个用于生成数据并保存在队列中, 另一个用于从队列中取数据并保存在文件中 代码中几个关键的变量 ( 参数 ) 介绍如下 : TOTAL_NUM: 需要生成的数据总条数 BATCH_SIZE: 控制台打印进度信息及队列当前信息的数据条数间隔, 同时也是每批次写文件的数据量大小 QUEUE_CAPACITY: 队列大小, 若队列满则阻塞写线程 DEST_FILE_PATH: 数据文件存储目录 queue: 缓存队列 12 / 21

13 运行上述代码, 稍等片刻, 我们就可以在目标路径中找到 order_detail.csv 文件,3 亿条数据占用 6 1.8G 存储空间 4.3 数据上传 接着, 我们将 order_detail.csv 上传至 HDFS 中 : [hadoop@master ~]$ hadoop fs -put /home/hadoop/order_detail.csv /data/carbondata/pt 5 启动 spark-shell 在使用 CarbonData 前, 有以下先决条件 : 5.1 简介 Hadoop HDFS 及 YARN 已安装及启动 Spark 已安装并在每个节点启动 CarbonData 用户拥有读写 HDFS 的权限 CarbonData 对 Spark 已有较好支持, 我们可将 carbondata 的 jar 包传入 sparkshell 来使用 CarbonData:./bin/spark-shell --jars <carbondata assembly jar path> 进入上述 Shell 后, 会自动生成一个名为 spark 的 SparkSession 及一个名为 sc 的 SparkContext 5.2 案例 样例代码如下 : [hadoop@master ~]$ cd /opt/spark [hadoop@master spark-2.1.0]$ carbondata_jar=./carbonlib/$(ls -1 carbonlib grep "^carbonda ta_.*\.jar$") [hadoop@master spark-2.1.0]$./bin/spark-shell --num-executors 4 --executor-cores 1 --drivermemory 5g --total-executor-cores 16 --executormemory 5g --master spark://master: jars ${carbondata_jar 13 / 21

14 细心的小伙伴可能已经发现, 在样例代码中, 我们在启动 spark shell 时额外添加了几个参数, 这里要强调一点的是,Spark 的配置及 spark shell 的配置会很大程度影响查询性能, 因此, 加入我们需要做组件性能的横向对比, 需注意以下事项 : 1. 保持参数的一致性, 强调单一变量原则 ; 2. 需为集群配置合理的参数, 以尽可能地发挥组件的性能 ; 关于 Spark 的配置可参照以下文档 : - Cluster Launch Scripts - Spark Standalone Mode - Launching Applications with spark-submit - Submitting Applications 6 创建 CarbonSession 6.1 简介 接下来我们需要创建一个 CarbonSession 来对 CarbonData 相关的内容进行操作 : # import packages import org.apache.spark.sql.sparksession import org.apache.spark.sql.carbonsession._ # create CarbonSession val carbon = SparkSession.builder().config(sc.getConf).getOrCreateCarbonSession("<hdfs store path>") 6.2 案例 import org.apache.spark.sql.sparksession import org.apache.spark.sql.carbonsession._ val carbon = SparkSession.builder().config(sc.getConf).getOrCreateCarbonSession("hdfs://mast er:9000/opt/carbonstore") 至此, 就完成了 CarbonSession 的创建 7 创建数据库及数据表 7.1 简介 关于 CarbonData 表的创建, 可参照 CarbonData 官方文档中的 CREATE TABLE 部分, 为充分发挥 CarbonData 的优势, 我们需注意以下内容 : 14 / 21

15 - 字典编码 (Dictionary Encoding) 默认情况下 CarbonData 会自动为 String 类型的字段创建字典, 而非 String 类型的字段不会创建字典 我们可根据实际需求进行调整, 如取消对部分高基列的字典编码等, 以下为对应的语法 : TBLPROPERTIES ("DICTIONARY_EXCLUDE"="column1, column2") TBLPROPERTIES ("DICTIONAR Y_INCLUDE"="column1, column2") - 列组 (Column group) 对于经常一起出现的列, 我们可以将其设置为列组, 被设置为列组的列会按行的方式进行存储, 然后与其它列或列组一起按列存储 默认情况下,CarbonData 不自动对列进行组合 以下为对应的语法 : TBLPROPERTIES ("COLUMN_GROUPS"="(column1, column3), (Column4,Column5,Column6)") 块大小 (Table Block Size) CarbonData 支持 1M-2018M 大小的块, 默认为 1024M, 我们可按需进行调整, 以下为对应的语法 : TBLPROPERTIES ("TABLE_BLOCKSIZE"="512 MB") 倒排索引 (Inverted Index) 倒排索引在压缩率和查询效率方面有非常大的作用, 这对低基维度 ( 默认情况下,CarbonData 会将所有非数值类型的字段视为维度, 而将数值型字段视为度量值 ) 效果尤其明显 默认情况下, CarbonData 会自动创建, 我们可根据实际需求进行调整, 如取消对部分高级维度的倒排索引 以下为对应的语法 : TBLPROPERTIES ("NO_INVERTED_INDEX"="column1, column3") 7.2 案例 15 / 21

16 在本文的例子中, 我们可设计建表语句如下 : CREATE TABLE IF NOT EXISTS pt.order_detail ( id BIGINT, order_code STRING, sales_area_id INT, sales_id INT, order_inputer INT, pro_type STRING, currency INT, exchange_rate DECIMAL, unit_cost_price DECIMAL, unit_selling_price DECIMAL, order_num INTEGER, order_amount DECIMAL, order_discount DOUBLE, order_account_amount DECIMAL, order_time TIMESTAMP, delivery_channel INT, delivery_address STRING, recipients STRING, contact STRING, delivery_date DATE, comments STRING ) STORED BY 'carbondata' TBLPROPERTIES ( 'COLUMN_GROUPS' = '(recipients,contact)', 'DICTIONARY_EXCLUDE' = 'comments', 'DICTIONARY_INCLUDE' = 'sales_area_id,sales_id', 'NO_INVERTED_INDEX' = 'id,order_code' ) 在 spark-shell 中, 我们可通过以下命令建表 : carbon.sql("create TABLE IF NOT EXISTS pt.order_detail ( id BIGINT, order_code STRING, sales _area_id INT, sales_id INT, order_inputer INT, pro_type STRING, currency INT, exchange_rate D ECIMAL, unit_cost_price DECIMAL, unit_selling_price DECIMAL, order_num INTEGER, order_am ount DECIMAL, order_discount DOUBLE, order_account_amount DECIMAL, order_time TIMEST AMP, delivery_channel INT, delivery_address STRING, recipients STRING, contact STRING, deliv ery_date DATE, comments STRING ) STORED BY 'carbondata' TBLPROPERTIES ( 'COLUMN_GRO UPS' = '(recipients,contact)', 'DICTIONARY_EXCLUDE' = 'comments', 'DICTIONARY_INCLUDE' = 's ales_area_id,sales_id', 'NO_INVERTED_INDEX' = 'id,order_code' )") 16 / 21

17 8 数据查询 8.1 数据导入 CarbonData 支持两种方式的数据导入, 分别为 : - 直接通过 CSV 文件导入 CarbonData 表 - 通过 spark-sql API 导入 导入方式一 简介 第一种数据导入方式是将原始数据从 CSV 文件导入 CarbonData 表形成 Carbon 格式的文件, 其语法为 : LOAD DATA [LOCAL] INPATH 'folder_path' INTO TABLE [db_name.]table_name OPTIONS(prope rty_name=property_value,...) 由上述命令中我们可以看到,CarbonData 支持从 LOCAL 及非 LOCAL( 如 HDFS) 位置导入,OPTI ONS 选项支持的内容可查看 DML Operations on CarbonData 需要注意的是,CarbonData 并不会自动根据顺序识别 CSV 文件中的列与数据表字段间的关系, 为此有两种解决方案, 第一种是在 CSV 文件的第一行加上列名, 与数据保持相同的分隔符, 如 : id,username,age 1,zhangsan,20 2,lisi,21 第二种是在 load data 命令中添加 fileheader, 如 : OPTIONS('FILEHEADER'='column1,column2') 案例 17 / 21

18 在 spark-shell 中, 我们可以用 benchmark{ 来进行性能测试, 使用 benchmark{ 需导入包 : import org.apache.spark.sql.catalyst.util._ 结合 benchmark, 我们一起来看一下以下的案例 : import org.apache.spark.sql.sparksession import org.apache.spark.sql.carbonsession._ import org.apache.spark.sql.catalyst.util._ val carbon = SparkSession.builder().config(sc.getConf).getOrCreateCarbonSession("hdfs://mast er:9000/opt/carbonstore") val src="hdfs://master:9000/data/carbondata" benchmark{carbon.sql(s"load data inpath '$src/order_detail.csv' into table pt.order_detail OPT IONS('DELIMITER'=',','fileheader'='id,order_code,sales_area_id,sales_id,order_inputer,pro_type, currency,exchange_rate,unit_cost_price,unit_selling_price,order_num,order_amount,order_disc ount,order_account_amount,order_time,delivery_channel,delivery_address,recipients,contact,d elivery_date,comments')") 导入方式二 简介 CarbonData 支持将 DataFrame 转换成一个 Carbon File, 详情可参照文档 :Carbondata Interfaces 案例 // User can create a DataFrame from any data source or transformation. val df =... // Write data // User can write a DataFrame to a carbon file df.write.format("org.apache.spark.sql.carbonsource").option("tablename", "carbontable").mode(savemode.overwrite).save() 18 / 21

19 // read carbon data by data source API df = carboncontext.read.format("org.apache.spark.sql.carbonsource").option("tablename", "carbontable").load("/path") badrecord 处理 简介 CarbonData Data Load 发生后有两种状态, 一种是成功, 另一种则是部分成功 其中部分成功是由于数据导入过程发现了非法记录 ( 如一条记录的列数与表的列数不匹配, 官方称为 badrecord ),badrecord 存储在 carbon.badrecords.location 所配置的目录下 案例 案例如下 : CarbonProperties.getInstance().addProperty("carbon.badRecords.location","hdfs://master:900 0/data/carbondata/badrecords/") benchmark{carbon.sql(s"load data inpath '$src/order_detail.csv' into table pt.order_detail OPT IONS('DELIMITER'=',','bad_records_logger_enable'='true','fileheader'='id,order_code,sales_area_ id,sales_id,order_inputer,pro_type,currency,exchange_rate,unit_cost_price,unit_selling_price,or der_num,order_amount,order_discount,order_account_amount,order_time,delivery_channel,d elivery_address,recipients,contact,delivery_date,comments')") 数据校验 简介 在跑完 Load Data 作业后, 我们需要对数据进行多角度的校验, 如数据总量 是否存在格式不匹配 ( 相应字段值为 NULL) 是否存在 badrecord 等 案例 carobon.sql("select count(1) from pt.order_detail").show carbon.sql("select * from pt.order_detail").show 19 / 21

20 8.2 数据查询 CarbonData 支持两种方式的数据查询, 分别为 : - 通过 spark-shell - 通过 spark-sql api 查询方式一 对于通过 spark-shell 的方式,CarbonData 查询的方式很简单, 只需在创建好 CarbonSession 的基础上执行如下语句 : carbon.sql("select * from pt.order_detail").show 同样的, 若要显示性能信息, 则添加 benchmark{: benchmark{carbon.sql("select * from pt.order_detail").show 查询方式二 CarbonData 还支持通过 spark-sql api 的方式对表进行查询, 如下所示 : carbondf.filter($"currency" === "1" and $"contact" === " ").count 同理, 若要显示性能信息, 则添加 benchmark{: benchmark{carbondf.filter($"currency" === "1" and $"contact" === " ").count 附 : 测试 SQL 脚本 OLAP 查询 20 / 21

21 Powered by TCPDF ( select recipients, sum(order_amount) sum_amount from pt.order_detail group by recipients h aving sum(order_amount) > 20 order by sum_amount desc limit 100 select delivery_date, avg(exchange_rate) from pt.order_detail group by delivery_date having av g(exchange_rate) > 100 limit 100 顺序查询 select * from pt.order_detail where order_discount < 0.5 and delivery_date > limit 10 select recipients, contact from pt.order_detail where order_num < 100 and order_amount < 随机查询 select * from pt.order_detail where contact= select * from pt.order_detail where sales_area_id=99 and sales_id= 结束语 CarbonData 作为大数据开源软件的 BLACKDUCK, 它的创新性和影响力已得到认可, 随着社区孵化进度的加速,CarbonData 在性能及通用性等方面势必有进一步可观的发展, 让我们一起拭目以待 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 ( 本文链接 : () 21 / 21

Apache CarbonData集群模式使用指南

Apache CarbonData集群模式使用指南 我们在 Apache CarbonData 快速入门编程指南 文章中介绍了如何快速使用 Apache CarbonData, 为了简单起见, 我们展示了如何在单机模式下使用 Apache CarbonData 但是生产环境下一般都是使用集群模式, 本文主要介绍如何在集群模式下使用 Apache CarbonData 启动 Spark shell 这里以 Spark shell 模式进行介绍,master

More information

通过Hive将数据写入到ElasticSearch

通过Hive将数据写入到ElasticSearch 我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,

More information

使用Cassandra和Spark 2.0实现Rest API服务

使用Cassandra和Spark 2.0实现Rest API服务 使用 Cassandra 和 Spark 2.0 实现 Rest API 服务 在这篇文章中, 我将介绍如何在 Spark 中使用 Akkahttp 并结合 Cassandra 实现 REST 服务, 在这个系统中 Cassandra 用于数据的存储 我们已经见识到 Spark 的威力, 如果和 Cassandra 正确地结合可以实现更强大的系统 我们先创建一个 build.sbt 文件, 内容如下

More information

Hive:用Java代码通过JDBC连接Hiveserver

Hive:用Java代码通过JDBC连接Hiveserver Hive: 用 Java 代码通过 JDBC 连接 Hiveserver 我们可以通过 CLI Client Web UI 等 Hive 提供的用户接口来和 Hive 通信, 但这三种方式最常用的是 CLI;Client 是 Hive 的客户端, 用户连接至 Hive Server 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点, 并且在该节点启动 Hive Server

More information

使用MapReduce读取XML文件

使用MapReduce读取XML文件 使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop

More information

新・解きながら学ぶJava

新・解きながら学ぶJava 481! 41, 74!= 40, 270 " 4 % 23, 25 %% 121 %c 425 %d 121 %o 121 %x 121 & 199 && 48 ' 81, 425 ( ) 14, 17 ( ) 128 ( ) 183 * 23 */ 3, 390 ++ 79 ++ 80 += 93 + 22 + 23 + 279 + 14 + 124 + 7, 148, 16 -- 79 --

More information

使用Spark SQL读取Hive上的数据

使用Spark SQL读取Hive上的数据 使用 Spark SQL 读取 Hive 上的数据 Spark SQL 主要目的是使得用户可以在 Spark 上使用 SQL, 其数据源既可以是 RDD, 也可以是外部的数据源 ( 比如 Parquet Hive Json 等 ) Spark SQL 的其中一个分支就是 Spark on Hive, 也就是使用 Hive 中 HQL 的解析 逻辑执行计划翻译 执行计划优化等逻辑, 可以近似认为仅将物理执行计划从

More information

Spark读取Hbase中的数据

Spark读取Hbase中的数据 Spark 读取 Hbase 中的数据 Spark 和 Flume-ng 整合, 可以参见本博客 : Spark 和 Flume-ng 整合 使用 Spark 读取 HBase 中的数据 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 大家可能都知道很熟悉 Spark 的两种常见的数据读取方式 ( 存放到 RDD 中 ):(1)

More information

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 odps-sdk 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基 开放数据处理服务 ODPS SDK SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基础功能的主体接口, 搜索关键词 "odpssdk-core" 一些

More information

SparkR(R on Spark)编程指南

SparkR(R on Spark)编程指南 概论 SparkR 是一个 R 语言包, 它提供了轻量级的方式使得可以在 R 语言中使用 Apache Spark 在 Spark 1.4 中,SparkR 实现了分布式的 data frame, 支持类似查询 过滤以及聚合的操作 ( 类似于 R 中的 data frames:dplyr), 但是这个可以操作大规模的数据集 SparkR DataFrames DataFrame 是数据组织成一个带有列名称的分布式数据集

More information

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示

ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 完整的大数据解決方案 ABOUT ME AGENDA 唐建法 / TJ MongoDB 高级方案架构师 MongoDB 中文社区联合发起人 Spark 介绍 Spark 和 MongoDB 案例演示 Dataframe Pig YARN Spark Stand Alone HDFS Spark Stand Alone Mesos Mesos Spark Streaming Hive Hadoop

More information

Hadoop&Spark解决二次排序问题(Hadoop篇)

Hadoop&Spark解决二次排序问题(Hadoop篇) Hadoop&Spark 解决二次排序问题 (Spark 篇 ) 问题描述 二次排序就是 key 之间有序, 而且每个 Key 对应的 value 也是有序的 ; 也就是对 MapReduce 的输出 (KEY, Value(v 1,v 2,v 3,...,v n )) 中的 Value(v 1,v 2,v 3,...,v n ) 值进行排序 ( 升序或者降序 ), 使得 Value(s 1,s 2,s

More information

三种方法实现Hadoop(MapReduce)全局排序(1)

三种方法实现Hadoop(MapReduce)全局排序(1) 三种方法实现 Hadoop(MapReduce) 全局排序 () 三种方法实现 Hadoop(MapReduce) 全局排序 () 我们可能会有些需求要求 MapReduce 的输出全局有序, 这里说的有序是指 Key 全局有序 但是我们知道,MapReduce 默认只是保证同一个分区内的 Key 是有序的, 但是不保证全局有序 基于此, 本文提供三种方法来对 MapReduce 的输出进行全局排序

More information

Chapter 9: Objects and Classes

Chapter 9: Objects and Classes Java application Java main applet Web applet Runnable Thread CPU Thread 1 Thread 2 Thread 3 CUP Thread 1 Thread 2 Thread 3 ,,. (new) Thread (runnable) start( ) CPU (running) run ( ) blocked CPU sleep(

More information

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO

雲端 Cloud Computing 技術指南 運算 應用 平台與架構 10/04/15 11:55:46 INFO 10/04/15 11:55:53 INFO 10/04/15 11:55:56 INFO 10/04/15 11:56:05 INFO 10/04/15 11:56:07 INFO CHAPTER 使用 Hadoop 打造自己的雲 8 8.3 測試 Hadoop 雲端系統 4 Nodes Hadoop Map Reduce Hadoop WordCount 4 Nodes Hadoop Map/Reduce $HADOOP_HOME /home/ hadoop/hadoop-0.20.2 wordcount echo $ mkdir wordcount $ cd wordcount

More information

Guava学习之Resources

Guava学习之Resources Resources 提供提供操作 classpath 路径下所有资源的方法 除非另有说明, 否则类中所有方法的参数都不能为 null 虽然有些方法的参数是 URL 类型的, 但是这些方法实现通常不是以 HTTP 完成的 ; 同时这些资源也非 classpath 路径下的 下面两个函数都是根据资源的名称得到其绝对路径, 从函数里面可以看出,Resources 类中的 getresource 函数都是基于

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Hadoop 生 态 技 术 在 阿 里 全 网 商 品 搜 索 实 战 阿 里 巴 巴 - 王 峰 自 我 介 绍 真 名 : 王 峰 淘 宝 花 名 : 莫 问 微 博 : 淘 莫 问 2006 年 硕 士 毕 业 后 加 入 阿 里 巴 巴 集 团 淘 及 搜 索 事 业 部 ( 高 级 技 术 与 家 ) 目 前 负 责 搜 索 离 线 系 统 团 队 技 术 方 向 : 分 布 式 计 算

More information

Flume-ng与Mysql整合开发

Flume-ng与Mysql整合开发 Flume-ng 与 Mysql 整合开发 我们知道,Flume 可以和许多的系统进行整合, 包括了 Hadoop Spark Kafka Hbase 等等 ; 当然, 强悍的 Flume 也是可以和 Mysql 进行整合, 将分析好的日志存储到 Mysql( 当然, 你也可以存放到 pg oracle 等等关系型数据库 ) 不过我这里想多说一些 :Flume 是分布式收集日志的系统 ; 既然都分布式了,

More information

6-1 Table Column Data Type Row Record 1. DBMS 2. DBMS MySQL Microsoft Access SQL Server Oracle 3. ODBC SQL 1. Structured Query Language 2. IBM

6-1 Table Column Data Type Row Record 1. DBMS 2. DBMS MySQL Microsoft Access SQL Server Oracle 3. ODBC SQL 1. Structured Query Language 2. IBM CHAPTER 6 SQL SQL SQL 6-1 Table Column Data Type Row Record 1. DBMS 2. DBMS MySQL Microsoft Access SQL Server Oracle 3. ODBC SQL 1. Structured Query Language 2. IBM 3. 1986 10 ANSI SQL ANSI X3. 135-1986

More information

使用Hive读取ElasticSearch中的数据

使用Hive读取ElasticSearch中的数据 本文将介绍如何通过 Hive 来读取 ElasticSearch 中的数据, 然后我们可以像操作其他正常 Hive 表一样, 使用 Hive 来直接操作 ElasticSearch 中的数据, 将极大的方便开发人员 本文使用的各组件版本分别为 Hive0.12 Hadoop-2.2.0 ElasticSearch 2.3.4 我们先来看看 ElasticSearch 中相关表的 mapping: {

More information

1 4 1.1 4 1.2..4 2..4 2.1..4 3.4 3.1 Java.5 3.1.1..5 3.1.2 5 3.1.3 6 4.6 4.1 6 4.2.6 5 7 5.1..8 5.1.1 8 5.1.2..8 5.1.3..8 5.1.4..9 5.2..9 6.10 6.1.10

1 4 1.1 4 1.2..4 2..4 2.1..4 3.4 3.1 Java.5 3.1.1..5 3.1.2 5 3.1.3 6 4.6 4.1 6 4.2.6 5 7 5.1..8 5.1.1 8 5.1.2..8 5.1.3..8 5.1.4..9 5.2..9 6.10 6.1.10 Java V1.0.1 2007 4 10 1 4 1.1 4 1.2..4 2..4 2.1..4 3.4 3.1 Java.5 3.1.1..5 3.1.2 5 3.1.3 6 4.6 4.1 6 4.2.6 5 7 5.1..8 5.1.1 8 5.1.2..8 5.1.3..8 5.1.4..9 5.2..9 6.10 6.1.10 6.2.10 6.3..10 6.4 11 7.12 7.1

More information

epub83-1

epub83-1 C++Builder 1 C + + B u i l d e r C + + B u i l d e r C + + B u i l d e r C + + B u i l d e r 1.1 1.1.1 1-1 1. 1-1 1 2. 1-1 2 A c c e s s P a r a d o x Visual FoxPro 3. / C / S 2 C + + B u i l d e r / C

More information

EJB-Programming-4-cn.doc

EJB-Programming-4-cn.doc EJB (4) : (Entity Bean Value Object ) JBuilder EJB 2.x CMP EJB Relationships JBuilder EJB Test Client EJB EJB Seminar CMP Entity Beans Session Bean J2EE Session Façade Design Pattern Session Bean Session

More information

使用Apache Beam读写HDFS上的文件

使用Apache Beam读写HDFS上的文件 Apache Beam( 原名 Google DataFlow) 是 Google 在 2016 年 2 月份贡献给 Apache 基金会的 Apache 孵化项目, 被认为是继 MapReduce,GFS 和 BigQuery 等之后,Google 在大数据处理领域对开源社区的又一个非常大的贡献 Apache Beam 的主要目标是统一批处理和流处理的编程范式, 为无限, 乱序,web-scale

More information

Microsoft Word - 第3章.doc

Microsoft Word - 第3章.doc Java C++ Pascal C# C# if if if for while do while foreach while do while C# 3.1.1 ; 3-1 ischeck Test() While ischeck while static bool ischeck = true; public static void Test() while (ischeck) ; ischeck

More information

Microsoft Word - linux命令及建议.doc

Microsoft Word - linux命令及建议.doc Linux 操 作 系 统 命 令 集 1 基 本 命 令 查 看 系 统 信 息 : uname -a 修 改 密 码 : passwd 退 出 : logout(exit) 获 取 帮 助 : man commands 2 文 件 和 目 录 命 令 显 示 当 前 工 作 目 录 : pwd 改 变 所 在 目 录 : cd cd - 切 换 到 上 一 次 使 用 的 目 录 cd 切 换

More information

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7.

Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes 包管理理 工具 Helm 蔺礼强 Kubenetes 系列列公开课 2 每周四晚 8 点档 1. Kubernetes 初探 2. 上 手 Kubernetes 3. Kubernetes 的资源调度 4. Kubernetes 的运 行行时 5. Kubernetes 的 网络管理理 6. Kubernetes 的存储管理理 7. Kubernetes

More information

Guava学习之CharSequenceReader

Guava学习之CharSequenceReader CharSequenceReader 类是以 CharSequence 的形式读取字符 CharSequenceReader 类继承自 Reader 类, 除了 remaining() hasremaining() 以及 checkopen() 函数之后, 其他的函数都是重写 Reader 类中的函数 CharSequenceReader 类声明没有用 public 关键字, 所以我们暂时还不能调用这个类

More information

在Spring中使用Kafka:Producer篇

在Spring中使用Kafka:Producer篇 在某些情况下, 我们可能会在 Spring 中将一些 WEB 上的信息发送到 Kafka 中, 这时候我们就需要在 Spring 中编写 Producer 相关的代码了 ; 不过高兴的是,Spring 本身提供了操作 Kafka 的相关类库, 我们可以直接通过 xml 文件配置然后直接在后端的代码中使用 Kafka, 非常地方便 本文将介绍如果在 Spring 中将消息发送到 Kafka 在这之前,

More information

JavaIO.PDF

JavaIO.PDF O u t p u t S t ream j a v a. i o. O u t p u t S t r e a m w r i t e () f l u s h () c l o s e () public abstract void write(int b) throws IOException public void write(byte[] data) throws IOException

More information

KillTest 质量更高 服务更好 学习资料 半年免费更新服务

KillTest 质量更高 服务更好 学习资料   半年免费更新服务 KillTest 质量更高 服务更好 学习资料 http://www.killtest.cn 半年免费更新服务 Exam : 310-065Big5 Title : Sun Certified Programmer for the Java 2 Platform, SE 6.0 Version : Demo 1 / 14 1. 35. String #name = "Jane Doe"; 36. int

More information

如何在 Apache Hive 中解析 Json 数组

如何在 Apache Hive 中解析 Json 数组 问题 我们都知道,Hive 内部提供了大量的内置函数用于处理各种类型的需求, 参见官方文档 :Hive Operators and User-Defined Functions (UDFs) 我们从这些内置的 UDF 可以看到两个用于解析 Json 的函数 :get_json_object 和 json_tuple 用过这两个函数的同学肯定知道, 其职能解析最普通的 Json 字符串, 如下 : hive

More information

提纲 1 2 OS Examples for 3

提纲 1 2 OS Examples for 3 第 4 章 Threads2( 线程 2) 中国科学技术大学计算机学院 October 28, 2009 提纲 1 2 OS Examples for 3 Outline 1 2 OS Examples for 3 Windows XP Threads I An Windows XP application runs as a seperate process, and each process may

More information

Oracle 4

Oracle 4 Oracle 4 01 04 Oracle 07 Oracle Oracle Instance Oracle Instance Oracle Instance Oracle Database Oracle Database Instance Parameter File Pfile Instance Instance Instance Instance Oracle Instance System

More information

在 ongodb 中实现强事务

在 ongodb 中实现强事务 在 ongodb 中实现强事务 600+ employees 2,000+ customers 13 offices worldwide 15,000,000+ Downloads RANK DBMS MODEL SCORE GROWTH (20 MO) 1. Oracle Rela+onal DBMS 1,442-5% 2. MySQL Rela+onal DBMS 1,294 2% 3.

More information

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6

1.JasperReport ireport JasperReport ireport JDK JDK JDK JDK ant ant...6 www.brainysoft.net 1.JasperReport ireport...4 1.1 JasperReport...4 1.2 ireport...4 2....4 2.1 JDK...4 2.1.1 JDK...4 2.1.2 JDK...5 2.1.3 JDK...5 2.2 ant...6 2.2.1 ant...6 2.2.2 ant...6 2.3 JasperReport...7

More information

1: public class MyOutputStream implements AutoCloseable { 3: public void close() throws IOException { 4: throw new IOException(); 5: } 6:

1: public class MyOutputStream implements AutoCloseable { 3: public void close() throws IOException { 4: throw new IOException(); 5: } 6: Chapter 15. Suppressed Exception CH14 Finally Block Java SE 7 try-with-resources JVM cleanup try-with-resources JVM cleanup cleanup Java SE 7 Throwable getsuppressed Throwable[] getsuppressed() Suppressed

More information

chp6.ppt

chp6.ppt Java 软 件 设 计 基 础 6. 异 常 处 理 编 程 时 会 遇 到 如 下 三 种 错 误 : 语 法 错 误 (syntax error) 没 有 遵 循 语 言 的 规 则, 出 现 语 法 格 式 上 的 错 误, 可 被 编 译 器 发 现 并 易 于 纠 正 ; 逻 辑 错 误 (logic error) 即 我 们 常 说 的 bug, 意 指 编 写 的 代 码 在 执 行

More information

本文由筱驀釹贡献

本文由筱驀釹贡献 本 文 由 筱 驀 釹 贡 献 ppt 文 档 可 能 在 WAP 端 浏 览 体 验 不 佳 建 议 您 优 先 选 择 TXT, 或 下 载 源 文 件 到 本 机 查 看 Linux 操 作 系 统 Linux 操 作 系 统 第 一 部 分 介 绍 与 安 装 Linux 的 由 来 : Linux 的 由 来 : 的 由 来 Linus Torvalds 1.Linux 的 版 本 1.Linux

More information

untitled

untitled Database System Principle Database System Principle 1 SQL 3.1 SQL 3.2-3.3 3.4 3.5 3.6 Database System Principle 2 3.1 SQL SQL Structured Query Language SQL Database System Principle 3 SQL 3.1.1 SQL 3.1.2

More information

C H A P T E R 7 Windows Vista Windows Vista Windows Vista FAT16 FAT32 NTFS NTFS New Technology File System NTFS

C H A P T E R 7 Windows Vista Windows Vista Windows Vista FAT16 FAT32 NTFS NTFS New Technology File System NTFS C H P T E R 7 Windows Vista Windows Vista Windows VistaFT16 FT32NTFS NTFSNew Technology File System NTFS 247 6 7-1 Windows VistaTransactional NTFS TxFTxF Windows Vista MicrosoftTxF CIDatomicity - Consistency

More information

ebook 132-6

ebook 132-6 6 SQL Server Windows NT Windows 2000 6.1 Enterprise Manager SQL Server Enterprise Manager( ) (Microsoft Management C o n s o l e M M C ) Enterprise Manager SQL Server Enterprise Manager 6.1.1 Enterprise

More information

Flink快速上手(QuickStart)

Flink快速上手(QuickStart) 安装 : 下载并启动 Flink 可以在 Linux Mac OS X 以及 Windows 上运行 为了能够运行 Flink, 唯一的要求是必须安装 Java 7.x 或者更高版本 对于 Windows 用户来说, 请参考 Flink on Windows 文档, 里面介绍了如何在 Window 本地运行 Flink 下载 从下载页面 (http://flink.apache.org/downloads.html)

More information

Mac Java import com.apple.mrj.*;... public class MyFirstApp extends JFrame implements ActionListener, MRJAboutHandler, MRJQuitHandler {... public MyFirstApp() {... MRJApplicationUtils.registerAboutHandler(this);

More information

Microsoft Word - 01.DOC

Microsoft Word - 01.DOC 第 1 章 JavaScript 简 介 JavaScript 是 NetScape 公 司 为 Navigator 浏 览 器 开 发 的, 是 写 在 HTML 文 件 中 的 一 种 脚 本 语 言, 能 实 现 网 页 内 容 的 交 互 显 示 当 用 户 在 客 户 端 显 示 该 网 页 时, 浏 览 器 就 会 执 行 JavaScript 程 序, 用 户 通 过 交 互 式 的

More information

Java 1 Java String Date

Java 1 Java String Date JAVA SCJP Java 1 Java String Date 1Java 01 Java Java 1995 Java Java 21 Java Java 5 1-1 Java Java 1990 12 Patrick Naughton C++ C (Application Programming Interface API Library) Patrick Naughton NeXT Stealth

More information

untitled

untitled 1 Outline 數 料 數 數 列 亂數 練 數 數 數 來 數 數 來 數 料 利 料 來 數 A-Z a-z _ () 不 數 0-9 數 不 數 SCHOOL School school 數 讀 school_name schoolname 易 不 C# my name 7_eleven B&Q new C# (1) public protected private params override

More information

Java ¿ª·¢ 2.0: Óà Hadoop MapReduce ½øÐдóÊý¾Ý·ÖÎö

Java ¿ª·¢ 2.0: Óà Hadoop MapReduce ½øÐдóÊý¾Ý·ÖÎö 中 文 登 录 ( 或 注 册 ) 技 术 主 题 软 件 下 载 社 区 技 术 讲 座 搜 索 developerworks developerworks 技 术 主 题 Java technology 文 档 库 Java 开 发 2.0: 用 Hadoop MapReduce 进 行 大 数 据 分 析 成 堆 的 数 据 如 何 变 成 信 息 金 矿 Andrew Glover, 作 家

More information

FileMaker 16 ODBC 和 JDBC 指南

FileMaker 16 ODBC 和 JDBC 指南 FileMaker 16 ODBC JDBC 2004-2017 FileMaker, Inc. FileMaker, Inc. 5201 Patrick Henry Drive Santa Clara, California 95054 FileMaker FileMaker Go FileMaker, Inc. FileMaker WebDirect FileMaker Cloud FileMaker,

More information

OOP with Java 通知 Project 4: 4 月 18 日晚 9 点 关于抄袭 没有分数

OOP with Java 通知 Project 4: 4 月 18 日晚 9 点 关于抄袭 没有分数 OOP with Java Yuanbin Wu cs@ecnu OOP with Java 通知 Project 4: 4 月 18 日晚 9 点 关于抄袭 没有分数 复习 类的复用 组合 (composition): has-a 关系 class MyType { public int i; public double d; public char c; public void set(double

More information

Flink on YARN部署快速入门指南

Flink on YARN部署快速入门指南 Apache Flink 是一个高效 分布式 基于 Java 和 Scala( 主要是由 Java 实现 ) 实现的通用大数据分析引擎, 它具有分布式 MapReduce 一类平台的高效性 灵活性和扩展性以及并行数据库查询优化方案, 它支持批量和基于流的数据分析, 且提供了基于 Java 和 Scala 的 API 从 Flink 官方文档可以知道, 目前 Flink 支持三大部署模式 :Local

More information

DPark MapReduce (Davies) davies@douban.com 2011/12/07 Velocity China 2011 Douban Douban 5500 Douban 5500 1000G, Douban 5500 1000G, 60+ Douban 5500 1000G, 60+ 200+ Douban 5500 1000G, 60+ 200+ > MooseFS

More information

Hive几种数据导入方式

Hive几种数据导入方式 写在前面的话, 学 Hive 这么久了, 发现目前国内还没有一本完整的介绍 Hive 的书籍, 而且互联网上面的资料很乱, 于是我决定写一些关于 Hive 的那些事 序列文章, 分享给大家 我会在接下来的时间整理有关 Hive 的资料, 如果对 Hive 的东西感兴趣, 请关注本博客 https://www.iteblog.com/archives/tag/hive-technology/ 好久没写

More information

FileMaker 15 ODBC 和 JDBC 指南

FileMaker 15 ODBC 和 JDBC 指南 FileMaker 15 ODBC JDBC 2004-2016 FileMaker, Inc. FileMaker, Inc. 5201 Patrick Henry Drive Santa Clara, California 95054 FileMaker FileMaker Go FileMaker, Inc. / FileMaker WebDirect FileMaker, Inc. FileMaker

More information

Chapter 9: Objects and Classes

Chapter 9: Objects and Classes Fortran Algol Pascal Modula-2 BCPL C Simula SmallTalk C++ Ada Java C# C Fortran 5.1 message A B 5.2 1 class Vehicle subclass Car object mycar public class Vehicle extends Object{ public int WheelNum

More information

Hadoop元数据合并异常及解决方法

Hadoop元数据合并异常及解决方法 Hadoop 元数据合并异常及解决方法 这几天观察了一下 Standby NN 上面的日志, 发现每次 Fsimage 合并完之后,Standby NN 通知 Active NN 来下载合并好的 Fsimage 的过程中会出现以下的异常信息 : 2014-04-23 14:42:54,964 ERROR org.apache.hadoop.hdfs.server.namenode.ha. StandbyCheckpointer:

More information

停止混流接口 请注意 : 该功能需要联系 ZEGO 技术支持开通 1 接口调用说明 http 请求方式 : POST/FORM, 需使用 https 正式环境地址 access_token=access_token (http

停止混流接口 请注意 : 该功能需要联系 ZEGO 技术支持开通 1 接口调用说明 http 请求方式 : POST/FORM, 需使用 https 正式环境地址   access_token=access_token (http 停止混流接口 请注意 : 该功能需要联系 ZEGO 技术支持开通 1 接口调用说明 http 请求方式 : POST/FORM, 需使用 https 正式环境地址 https://webapi.zego.im/cgi/stop-mix? access_token=access_token (https://webapi.zego.im/cgi/stop-mix? access_token=access_token)

More information

概述

概述 OPC Version 1.6 build 0910 KOSRDK Knight OPC Server Rapid Development Toolkits Knight Workgroup, eehoo Technology 2002-9 OPC 1...4 2 API...5 2.1...5 2.2...5 2.2.1 KOS_Init...5 2.2.2 KOS_InitB...5 2.2.3

More information

untitled

untitled 2006 6 Geoframe Geoframe 4.0.3 Geoframe 1.2 1 Project Manager Project Management Create a new project Create a new project ( ) OK storage setting OK (Create charisma project extension) NO OK 2 Edit project

More information

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并

目录 1 编译 SPARK 编译 SPARK(SBT) 安装 git 并编译安装 下载 Spark 源代码并上传 编译代码 编译 SPARK(MAVEN) 安装 Maven 并 Spark 编译与部署 ( 下 ) --Spark 编译安装 第 1 页共 24 页 目录 1 编译 SPARK... 3 1.1 编译 SPARK(SBT)... 3 1.1.1 安装 git 并编译安装... 3 1.1.2 下载 Spark 源代码并上传... 6 1.1.3 编译代码... 7 1.2 编译 SPARK(MAVEN)... 7 1.2.1 安装 Maven 并配置参数...

More information

Microsoft Word - PS2_linux_guide_cn.doc

Microsoft Word - PS2_linux_guide_cn.doc Linux For $ONY PlayStatioin2 Unofficall General Guide Language: Simplified Chinese First Write By Beter Hans v0.1 Mail: hansb@citiz.net Version: 0.1 本 人 是 菜 鸟 + 小 白 欢 迎 指 正 错 误 之 处, 如 果 您 有 其 他 使 用 心 得

More information

W. Richard Stevens UNIX Sockets API echo Sockets TCP OOB IO C struct C/C++ UNIX fork() select(2)/poll(2)/epoll(4) IO IO CPU 100% libevent UNIX CPU IO

W. Richard Stevens UNIX Sockets API echo Sockets TCP OOB IO C struct C/C++ UNIX fork() select(2)/poll(2)/epoll(4) IO IO CPU 100% libevent UNIX CPU IO Linux muduo C++ (giantchen@gmail.com) 2012-09-30 C++ TCP C++ x86-64 Linux TCP one loop per thread Linux native muduo C++ IT 5 C++ muduo 2 C++ C++ Primer 4 W. Richard Stevens UNIX Sockets API echo Sockets

More information

KillTest 质量更高 服务更好 学习资料 半年免费更新服务

KillTest 质量更高 服务更好 学习资料   半年免费更新服务 KillTest 质量更高 服务更好 学习资料 http://www.killtest.cn 半年免费更新服务 Exam : 310-055Big5 Title : Sun Certified Programmer for the Java 2 Platform.SE 5.0 Version : Demo 1 / 22 1. 11. public static void parse(string str)

More information

詞 彙 表 編 號 詞 彙 描 述 1 預 約 人 資 料 中 文 姓 名 英 文 姓 名 身 份 證 字 號 預 約 人 電 話 性 別 2 付 款 資 料 信 用 卡 別 信 用 卡 號 信 用 卡 有 效 日 期 3 住 房 條 件 入 住 日 期 退 房 日 期 人 數 房 間 數 量 入

詞 彙 表 編 號 詞 彙 描 述 1 預 約 人 資 料 中 文 姓 名 英 文 姓 名 身 份 證 字 號 預 約 人 電 話 性 別 2 付 款 資 料 信 用 卡 別 信 用 卡 號 信 用 卡 有 效 日 期 3 住 房 條 件 入 住 日 期 退 房 日 期 人 數 房 間 數 量 入 100 年 特 種 考 試 地 方 政 府 公 務 人 員 考 試 試 題 等 別 : 三 等 考 試 類 科 : 資 訊 處 理 科 目 : 系 統 分 析 與 設 計 一 請 參 考 下 列 旅 館 管 理 系 統 的 使 用 案 例 圖 (Use Case Diagram) 撰 寫 預 約 房 間 的 使 用 案 例 規 格 書 (Use Case Specification), 繪 出 入

More information

ebook 185-6

ebook 185-6 6 Red Hat Linux DB2 Universal Database 6.1 D B 2 Red Hat D B 2 Control Center D B 2 D B 2 D B 2 6.1 DB2 Universal Database [DB2]6.1 D B 2 O LT P O L A P D B 2 I B M P C We e k D B 2 D B 2 L i n u x Windows

More information

水晶分析师

水晶分析师 大数据时代的挑战 产品定位 体系架构 功能特点 大数据处理平台 行业大数据应用 IT 基础设施 数据源 Hadoop Yarn 终端 统一管理和监控中心(Deploy,Configure,monitor,Manage) Master Servers TRS CRYSTAL MPP Flat Files Applications&DBs ETL&DI Products 技术指标 1 TRS

More information

案例分享产品文档

案例分享产品文档 消 息 队 列 案 例 分 享 产 品 文 档 版 权 声 明 2015-2016 腾 讯 云 版 权 所 有 本 文 档 著 作 权 归 腾 讯 云 单 独 所 有, 未 经 腾 讯 云 事 先 书 面 许 可, 任 何 主 体 不 得 以 任 何 形 式 复 制 修 改 抄 袭 传 播 全 部 或 部 分 本 文 档 内 容 商 标 声 明 及 其 它 腾 讯 云 服 务 相 关 的 商 标 均

More information

EJB-Programming-3.PDF

EJB-Programming-3.PDF :, JBuilder EJB 2.x CMP EJB Relationships JBuilder EJB Test Client EJB EJB Seminar CMP Entity Beans Value Object Design Pattern J2EE Design Patterns Value Object Value Object Factory J2EE EJB Test Client

More information

untitled

untitled How to using M-Power Report API M-Power Report API 力 了 M-Power Report -- Java (Library) M-Power Report API 行 Java M-Power Report M-Power Report API ( 30 ) PDF/HTML/CSV/XLS JPEG/PNG/SVG 料 料 OutputStream

More information

09 (File Processes) (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises)

09 (File Processes) (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises) 09 (File Processes) 9-1 9-2 (mkdir) 9-3 (createnewfile) 9-4 (write) 9-5 (read) 9-6 (deletefile) 9-7 (deletedir) (Exercises) Java Servlet 9-1 Servlet (File Processes) Client Servlet Servlet Java Java (Stream)

More information

获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复

获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复 获取 Access Token access_token 是接口的全局唯一票据, 接入方调用各接口时都需使用 access_token 开发者需要进行妥善保存 access_token 的存储至少要保留 512 个字符空间 access_token 的有效期目前为 2 个小时, 需定时刷新, 重复 获取将导致上次获取的 access_token 失效 接入方可以使用 AppID 和 AppSecret

More information

untitled

untitled Work Managers 什 Work Managers? WebLogic Server 9.x 行 (thread) 理 thread pool 數量 立 execute queues 來 量 理 thread count, thread priority 參數 理 thread pool 數量? WebLogic Server 9.x 理 行 (thread) (self-tuning) 句

More information

(TestFailure) JUnit Framework AssertionFailedError JUnit Composite TestSuite Test TestSuite run() run() JUnit

(TestFailure) JUnit Framework AssertionFailedError JUnit Composite TestSuite Test TestSuite run() run() JUnit Tomcat Web JUnit Cactus JUnit Java Cactus JUnit 26.1 JUnit Java JUnit JUnit Java JSP Servlet JUnit Java Erich Gamma Kent Beck xunit JUnit boolean JUnit Java JUnit Java JUnit Java 26.1.1 JUnit JUnit How

More information

RUN_PC連載_12_.doc

RUN_PC連載_12_.doc PowerBuilder 8 (12) PowerBuilder 8.0 PowerBuilder PowerBuilder 8 PowerBuilder 8 / IDE PowerBuilder PowerBuilder 8.0 PowerBuilder PowerBuilder PowerBuilder PowerBuilder 8.0 PowerBuilder 6 PowerBuilder 7

More information

曹鲁

曹鲁 CarbonData Partition 功能介绍 与 上汽集团 CarbonData实践分享 曹 鲁 79 关于我 曹 鲁 年毕业于武汉 学计算机学院 曾负责某 融 业公司BI ETL系统开发 某互联 电商 业公司数据仓库 的容量管理 性能调优等 6年加 上汽集团数据业务部 负责 数据平台架构设计与开发 关注 数据技术与开源社区 Mail caolu@saicmotorcom 上汽集团数据业务部

More information

目 錄 版 次 變 更 記 錄... 2 原 始 程 式 碼 類 型 之 使 用 手 冊... 3 一 安 裝 軟 體 套 件 事 前 準 備... 3 二 編 譯 流 程 說 明... 25 1

目 錄 版 次 變 更 記 錄... 2 原 始 程 式 碼 類 型 之 使 用 手 冊... 3 一 安 裝 軟 體 套 件 事 前 準 備... 3 二 編 譯 流 程 說 明... 25 1 科 技 部 自 由 軟 體 專 案 原 始 程 式 碼 使 用 手 冊 Source Code Manual of NSC Open Source Project 可 信 賴 的 App 安 全 應 用 框 架 -App 應 用 服 務 可 移 轉 性 驗 證 Trusted App Framework -Transferability Verification on App MOST 102-2218-E-011-012

More information

<4D6963726F736F667420506F776572506F696E74202D20332D322E432B2BC3E6CFF2B6D4CFF3B3CCD0F2C9E8BCC6A1AAD6D8D4D8A1A2BCCCB3D0A1A2B6E0CCACBACDBEDBBACF2E707074>

<4D6963726F736F667420506F776572506F696E74202D20332D322E432B2BC3E6CFF2B6D4CFF3B3CCD0F2C9E8BCC6A1AAD6D8D4D8A1A2BCCCB3D0A1A2B6E0CCACBACDBEDBBACF2E707074> 程 序 设 计 实 习 INFO130048 3-2.C++ 面 向 对 象 程 序 设 计 重 载 继 承 多 态 和 聚 合 复 旦 大 学 计 算 机 科 学 与 工 程 系 彭 鑫 pengxin@fudan.edu.cn 内 容 摘 要 方 法 重 载 类 的 继 承 对 象 引 用 和 拷 贝 构 造 函 数 虚 函 数 和 多 态 性 类 的 聚 集 复 旦 大 学 计 算 机 科 学

More information

Hadoop 2.2.0安装和配置lzo

Hadoop 2.2.0安装和配置lzo Hadoop 2.2.0 安装和配置 lzo Hadoop 经常用于处理大量的数据, 如果期间的输出数据 中间数据能压缩存储, 对系统的 I/ O 性能会有提升 综合考虑压缩 解压速度 是否支持 split, 目前 lzo 是最好的选择 LZO(LZO 是 Lempel-Ziv-Oberhumer 的缩写 ) 是一种高压缩比和解压速度极快的编码, 它的特点是解压缩速度非常快, 无损压缩, 压缩后的数据能准确还原,lzo

More information

四川省普通高等学校

四川省普通高等学校 四 川 省 普 通 高 等 学 校 计 算 机 应 用 知 识 和 能 力 等 级 考 试 考 试 大 纲 (2013 年 试 行 版 ) 四 川 省 教 育 厅 计 算 机 等 级 考 试 中 心 2013 年 1 月 目 录 一 级 考 试 大 纲 1 二 级 考 试 大 纲 6 程 序 设 计 公 共 基 础 知 识 6 BASIC 语 言 程 序 设 计 (Visual Basic) 9

More information

1. 访 问 最 新 发 行 公 告 信 息 jconnect for JDBC 7.0 1. 访 问 最 新 发 行 公 告 信 息 最 新 版 本 的 发 行 公 告 可 以 从 网 上 获 得 若 要 查 找 在 本 产 品 发 布 后 增 加 的 重 要 产 品 或 文 档 信 息, 请 访

1. 访 问 最 新 发 行 公 告 信 息 jconnect for JDBC 7.0 1. 访 问 最 新 发 行 公 告 信 息 最 新 版 本 的 发 行 公 告 可 以 从 网 上 获 得 若 要 查 找 在 本 产 品 发 布 后 增 加 的 重 要 产 品 或 文 档 信 息, 请 访 发 行 公 告 jconnect for JDBC 7.0 文 档 ID:DC74874-01-0700-01 最 后 修 订 日 期 :2010 年 3 月 2 日 主 题 页 码 1. 访 问 最 新 发 行 公 告 信 息 2 2. 产 品 摘 要 2 3. 特 殊 安 装 说 明 2 3.1 查 看 您 的 jconnect 版 本 3 4. 特 殊 升 级 指 导 3 4.1 迁 移 3

More information

untitled

untitled 1 行 行 行 行.NET 行 行 類 來 行 行 Thread 類 行 System.Threading 來 類 Thread 類 (1) public Thread(ThreadStart start ); Name 行 IsAlive 行 行狀 Start 行 行 Suspend 行 Resume 行 行 Thread 類 (2) Sleep 行 CurrentThread 行 ThreadStart

More information

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI

第 06 期 李祥池 : 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 1 日志 1.1 日志定义 IT 1.2 日志处理方案演进 v1.0 v2.0 Hadoop Storm Spark Hadoop/Storm/Spark v3.0 TB Splunk ELK SI 电子科学技术第 02 卷第 06 期 2015 年 11 月 Electronic Science & Technology Vol.02 No.06 Nov.2015 年 基于 ELK 和 Spark Streaming 的日志分析系统设计与实现 李祥池 ( 杭州华三通信技术有限公司北京研究所, 北京,100085) 摘要 : 在大数据时代 对数据平台各组件的运行状态实时监控与运行分析具有重要意义

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Apache Spark 与 多 数 据 源 的 结 合 田 毅 @ 目 录 为 什 么 会 用 到 多 个 数 据 源 Spark 的 多 数 据 源 方 案 有 哪 些 已 有 的 数 据 源 支 持 Spark 在 GrowingIO 的 实 践 分 享 为 什 么 会 用 到 多 个 数 据 源 从 数 据 本 身 来 看 大 数 据 的 特 性 之 一 :Variety 数 据 的 多 样

More information

PowerPoint 演示文稿

PowerPoint 演示文稿 Linux 操 作 系 统 基 础 介 绍 课 程 目 标 及 要 求 了 解 Linux 操 作 系 统 的 登 入 方 式 掌 握 常 用 命 令 的 基 本 用 法 能 够 熟 练 在 各 个 目 录 转 换 Outline 1. Linux 操 作 系 统 简 介 2. Linux 操 作 系 统 的 登 录 3. Linux 操 作 系 统 的 目 录 结 构 4. 常 用 命 令 5.

More information

在Fedora上部署Hadoop2.2.0伪分布式平台

在Fedora上部署Hadoop2.2.0伪分布式平台 如果你想配置完全分布式平台请参见本博客 Hadoop2.2.0 完全分布式集群平台安装与设置 首先, 你得在电脑上面安装好 jdk7, 如何安装, 这里就不说了, 网上一大堆教程! 然后安装好 ssh, 如何安装请参见本博客 Linux 平台下安装 SSH 并设置好无密码登录 ( Ubuntu 和 CentOS 如何配置 SSH 使得无密码登陆 ) 好了, 上面的前提条件部署好之后, 下面将进入 Hadoop2.2.0

More information

1 o o o CPU o o o o o SQL Server 2005 o CPU o o o o o SQL Server o Microsoft SQL Server 2005

1 o o o CPU o o o o o SQL Server 2005 o CPU o o o o o SQL Server o Microsoft SQL Server 2005 1 o o o CPU o o o o o SQL Server 2005 o CPU o o o o o SQL Server o Microsoft SQL Server 2005 1 1...3 2...20 3...28 4...41 5 Windows SQL Server...47 Microsoft SQL Server 2005 DBSRV1 Microsoft SQL Server

More information

ebook46-23

ebook46-23 23 Access 2000 S Q L A c c e s s S Q L S Q L S Q L S E L E C T S Q L S Q L A c c e s s S Q L S Q L I N A N S I Jet SQL S Q L S Q L 23.1 Access 2000 SQL S Q L A c c e s s Jet SQL S Q L U N I O N V B A S

More information

软件概述

软件概述 Cobra DocGuard BEIJING E-SAFENET SCIENCE & TECHNOLOGY CO.,LTD. 2003 3 20 35 1002 010-82332490 http://www.esafenet.com Cobra DocGuard White Book 1 1....4 1.1...4 1.2 CDG...4 1.3 CDG...4 1.4 CDG...5 1.5

More information

IT Data-intensive application,iscsi Middl

IT Data-intensive application,iscsi Middl 112-861 2-1-1 163 8677 1 24 2 E-mail: shiori@ogl.is.ocha.ac.jp, sane@cc.kogakuin.ac.jp, oguchi@computer.org IT Data-intensive application,iscsi iddleware for Load Distribution among Cloud Computing Resource

More information

Abstract arm linux tool-chain root NET-Start! 2

Abstract arm linux tool-chain root NET-Start! 2 Lab III - Embedding Linux 1 Abstract arm linux tool-chain root NET-Start! 2 Part 1.4 Step1. tool-chain 4 Step2. PATH 4 Part 2 kernel 5 Step1. 5 Step2... 6 Step3...8 Part 3 root. 8 Step1. 8 Step2. 8 Part

More information

支付宝2011年 IT资产与费用预算

支付宝2011年 IT资产与费用预算 OceanBase 支 持 ACID 的 可 扩 展 关 系 数 据 库 qushan@alipay.com 2013 年 04 月 关 系 数 据 库 发 展 1970-72:E.F.Codd 数 据 库 关 系 模 式 20 世 纨 80 年 代 第 一 个 商 业 数 据 库 Oracle V2 SQL 成 为 数 据 库 行 业 标 准 可 扩 展 性 Mainframe: 小 型 机 =>

More information

1 1 大概思路 创建 WebAPI 创建 CrossMainController 并编写 Nuget 安装 microsoft.aspnet.webapi.cors 跨域设置路由 编写 Jquery EasyUI 界面 运行效果 2 创建 WebAPI 创建 WebAPI, 新建 -> 项目 ->

1 1 大概思路 创建 WebAPI 创建 CrossMainController 并编写 Nuget 安装 microsoft.aspnet.webapi.cors 跨域设置路由 编写 Jquery EasyUI 界面 运行效果 2 创建 WebAPI 创建 WebAPI, 新建 -> 项目 -> 目录 1 大概思路... 1 2 创建 WebAPI... 1 3 创建 CrossMainController 并编写... 1 4 Nuget 安装 microsoft.aspnet.webapi.cors... 4 5 跨域设置路由... 4 6 编写 Jquery EasyUI 界面... 5 7 运行效果... 7 8 总结... 7 1 1 大概思路 创建 WebAPI 创建 CrossMainController

More information

输入 project name 选择完成

输入 project name 选择完成 JAVA 程序访问 HighGo DB 的环境准备 山东瀚高科技有限公司版权所有仅允许不作任何修改的转载和转发 Hibernate 的配置 MyEclipse 中创建新项目 : 选择菜单栏 file---new---project 选择 web project 进行下一步 输入 project name 选择完成 4. 单击 " 添加 JAR/ 文件夹 ", 会如下图出现 JDBC 下载 Hibernate

More information

客户端虚拟机使用说明

客户端虚拟机使用说明 Spark 客户端云主机使用手册 更新时间 2016-05-13 目录 1 集群和客户端云主机信息... 3 2 配置主机名解析... 4 3 HDFS 测试... 4 3.1 配置客户端... 4 3.2 查询 HDFS 集群信息... 4 3.3 HDFS 文件和目录操作示例... 5 4 Spark 测试... 6 4.1 启动 spark-shell... 6 4.2 示例 :Pi 估值...

More information

六种使用Linux命令发送带附件的邮件

六种使用Linux命令发送带附件的邮件 六种使用 Linux 命令发送带附件的邮件 在很多场景中我们会使用 Shell 命令来发送邮件, 而且我们还可能在邮件里面添加附件, 本文将介绍使用 Shell 命令发送带附件邮件的几种方式, 希望对大家有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 使用 mail 命令 mail 命令是 mailutils(on

More information

D C 93 2

D C 93 2 D9223468 3C 93 2 Java Java -- Java UML Java API UML MVC Eclipse API JavadocUML Omendo PSPPersonal Software Programming [6] 56 8 2587 56% Java 1 epaper(2005 ) Java C C (function) C (reusability) eat(chess1,

More information

<4D F736F F D D342DA57CA7DEA447B14D2DA475B57BBB50BADEB27AC3FEB14DA447B8D5C344>

<4D F736F F D D342DA57CA7DEA447B14D2DA475B57BBB50BADEB27AC3FEB14DA447B8D5C344> 1. 請 問 誰 提 出 積 體 電 路 (IC) 上 可 容 納 的 電 晶 體 數 目, 約 每 隔 24 個 月 (1975 年 更 改 為 18 個 月 ) 便 會 增 加 一 倍, 效 能 也 將 提 升 一 倍, 也 揭 示 了 資 訊 科 技 進 步 的 速 度? (A) 英 特 爾 (Intel) 公 司 創 始 人 戈 登. 摩 爾 (Gordon Moore) (B) 微 軟 (Microsoft)

More information

SQL Server SQL Server SQL Mail Windows NT

SQL Server SQL Server SQL Mail Windows NT ... 3 11 SQL Server... 4 11.1... 7 11.2... 9 11.3... 11 11.4... 30 11.5 SQL Server... 30 11.6... 31 11.7... 32 12 SQL Mail... 33 12.1Windows NT... 33 12.2SQL Mail... 34 12.3SQL Mail... 34 12.4 Microsoft

More information

KillTest 质量更高 服务更好 学习资料 半年免费更新服务

KillTest 质量更高 服务更好 学习资料   半年免费更新服务 KillTest 质量更高 服务更好 学习资料 http://www.killtest.cn 半年免费更新服务 Exam : 70-536Chinese(C++) Title : TS:MS.NET Framework 2.0-Application Develop Foundation Version : DEMO 1 / 10 1. Exception A. Data B. Message C.

More information

前言 C# C# C# C C# C# C# C# C# microservices C# More Effective C# More Effective C# C# C# C# Effective C# 50 C# C# 7 Effective vii

前言 C# C# C# C C# C# C# C# C# microservices C# More Effective C# More Effective C# C# C# C# Effective C# 50 C# C# 7 Effective vii 前言 C# C# C# C C# C# C# C# C# microservices C# More Effective C# More Effective C# C# C# C# Effective C# 50 C# C# 7 Effective vii C# 7 More Effective C# C# C# C# C# C# Common Language Runtime CLR just-in-time

More information