Spark作业代码(源码)IDE远程调试
|
|
|
- 厚 白
- 6 years ago
- Views:
Transcription
1 我们在编写 Spark Application 或者是阅读源码的时候, 我们很想知道代码的运行情况, 比如参数设置的是否正确等等 用 Logging 方式来调试是一个可以选择的方式, 但是,logging 方式调试代码有很多的局限和不便 今天我就来介绍如何通过 IDE 来远程调试 Spark 的 Application 或者是 Spar k 的源码 本文以调试 Spark Application 为例进行说明, 本文用到的 IDE 是 IntelliJ IDEA 步骤如下 : 设置调试相关参数 JAVA 自身支持调试功能, 我们仅仅需要在程序启动之前, 在 JVM 里面设置以下参数 : -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8888 这里对上面的几个参数进行说明 : -Xdebug 启用调试特性 -Xrunjdwp 启用 JDWP 实现, 包含若干子选项 : transport=dt_socket JPDA front-end 和 backend 之间的传输方法 dt_socket 表示使用套接字传输 address=8888 JVM 在 8888 端口上监听请求, 这个设定为一个不冲突的端口即可 server=y y 表示启动的 JVM 是被调试者 如果为 n, 则表示启动的 JVM 是调试器 suspend=y y 表示启动的 JVM 会暂停等待, 直到调试器连接上才继续执行 suspend=n, 则 JVM 不会暂停等待 因为 Spark 应用程序是分布式的, 所有调试的时候有点麻烦 但是如果知道方法也是很容易的 这里分两种情况来说明 : 调试 Driver 端相关代码 Spark 应用程序都有一个 Driver, 如果你是 yarn-client 模式, 这个 Driver 一般在你启动程序的机器上运行 如果你想调试这块模块, 我们需要在 Driver 相关参数里面设置调试参数如下 : spark.driver.extrajavaoptions -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,ad dress= / 5
2 这个配置可以放到 $SPARK_HOME/conf/spark-defaults.conf 里面 ; 也可以在启动作业的时候通过 --conf 设置, 比如 :--conf "spark.driver.extrajavaoptions=-xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8888" 这时候我们就可以调试 Driver 相关的代码了 调试 Executor 端相关代码 一个 Spark 应用程序一般会启动一个或多个 Executor, 我们应用程序相关的计算逻辑一般都是在这里完成的, 所有如果你想调试这块的代码, 需要在 Executor 启动的 JVM 加入相关的调试参数如下 : spark.executor.extrajavaoptions -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y, address=8888 这个配置可以放到 $SPARK_HOME/conf/spark-defaults.conf 里面 ; 也可以在启动作业的时候通过 --conf 设置, 比如 :--conf "spark.executor.extrajavaoptions=-xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8888" 可以看见,Executor 的调试代码和 Driver 很类似 启动 Spark Application 上面我们已经设置好了相关的调试参数, 现在我们可以启动 Spark Application 应用程序了 如下 : [iteblog.com@spark spark]$./bin/spark-submit --class scala.scalashuffle --master yarn-client --queue queue1 --num-executors 1 --executor-memory 10g --executor-cores 1 spark-1.0-snapshot.jar /home/wyp/shuffle /home/wyp/sparkshu ffle Spark assembly has been built with Hive, including Datanucleus jars on classpath Listening for transport dt_socket at address: / 5
3 如果你看到第九行的输出 (Listening for transport dt_socket at address: 8888), 那恭喜你了, 启动了远程调试 而且 Spark Application 正在等待我们的 IDE 连接它 在 IntelliJ IDEA 设置远程调试的 IP 和 Port 如果你需要调试 Driver 相关代码, 依次选择 Edit Configurations-> 点击左上角的 + 号 ->Remote, 在弹出的页面里面将 Host 和 Port 两个选项设置为你 Driver 运行所在节点机器的 IP 和 Port 设置完后, 设置好程序的断电, 然后再点击 IDE 上面的 Debug 按钮 ( 就是那个虫子按钮 ) 这时候, 程序会继续运行, 而且在 IDE 里面会输出以下信息 Connected to the target VM, address: ' transport: 'socket' 而且程序会跳到你设置断点的地方, 你可以在你 IDE 的 Dubegger 里面看到如下的信息 : 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 3 / 5
4 调试 Executor 相关的代码和上面设置类似, 这里就不介绍了 问题 在调试 Executor 相关代码大家可能会遇到相关的问题 如下 : 17/10/27 13:40:35 WARN cluster.yarnschedulerbackend$yarnschedulerendpoint: Container m arked as failed: container_ _ _01_ on host: Exit st atus: 134. Diagnostics: Exception from container-launch: org.apache.hadoop.util.shell$exitcod eexception: /bin/bash: line 1: 9767 Aborted /home/q/java/jdk1.7.0_25//bin/java -server -Xmx 10240m '-Xdebug' '-Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8888' -Djava.io.tmpdir=/tmp/iteblog/nm-local-dir/usercache/iteblog/appcache/application_ _ /container_ _ _01_000003/tmp '-Dspark.driver.port=49676' -Dsp ark.yarn.app.container.log.dir=/tmp/iteblog/userlogs/application_ _ /co ntainer_ _ _01_ XX:OnOutOfMemoryError='kill %p' org.apache.s park.executor.coarsegrainedexecutorbackend --driver-url spark://coarsegrainedscheduler@ : executor-id 2 --hostname cores 1 --app-id application_ _ user-class-path file:/tmp/iteblog/nm-local-dir/usercache/iteblog/appc ache/application_ _ /container_ _ _01_000003/ app.jar --user-class-path file:/tmp/iteblog/nm-local-dir/usercache/iteblog/appcache/applicati on_ _ /container_ _ _01_000003/hadoop-lzo SNAPSHOT.jar --user-class-path file:/tmp/iteblog/nm-local-dir/usercache/iteblog/appcache/ application_ _ /container_ _ _01_000003/mysql-c onnector-java jar > /tmp/iteblog/userlogs/application_ _ /contain er_ _ _01_000003/stdout 2> /tmp/iteblog/userlogs/application_ _ /container_ _ _01_000003/stderr at org.apache.hadoop.util.shell.runcommand(shell.java:464) at org.apache.hadoop.util.shell.run(shell.java:379) at org.apache.hadoop.util.shell$shellcommandexecutor.execute(shell.java:589) at org.apache.hadoop.yarn.server.nodemanager.defaultcontainerexecutor.launchcontainer( DefaultContainerExecutor.java:200) at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.containerlaun ch.call(containerlaunch.java:283) at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.containerlaun ch.call(containerlaunch.java:79) at java.util.concurrent.futuretask.run(futuretask.java:266) at java.util.concurrent.threadpoolexecutor.runworker(threadpoolexecutor.java:1142) at java.util.concurrent.threadpoolexecutor$worker.run(threadpoolexecutor.java:617) at java.lang.thread.run(thread.java:745) 这个问题是 Spark 在同一台机器上启动多个 Executor, 4 / 5
5 Powered by TCPDF ( 导致端口被占用, 出现的异常, 这时候你只需要把 --num-executors 设置为 1 即可解决这个问题 我们还有可能遇到下面的问题 : 17/10/27 13:56:42 WARN spark.heartbeatreceiver: Removing executor 1 with no recent heartb eats: ms exceeds timeout ms 17/10/27 13:56:42 ERROR cluster.yarnscheduler: Lost executor 1 on Execut or heartbeat timed out after ms 17/10/27 13:56:42 WARN scheduler.tasksetmanager: Lost task 0.0 in stage 0.0 (TID 0, blog.com, executor 1): ExecutorLostFailure (executor 1 exited caused by one of the running tas ks) Reason: Executor heartbeat timed out after ms 17/10/27 13:56:46 ERROR cluster.yarnscheduler: Lost executor 1 on Contain er container_ _ _01_ exited from explicit termination request. 这是因为我们在调试出现的时候, 整个程序运行流程就卡到那了 这时候 Driver 就无法接收到 Executor 发来的心跳信息了, 从而产生这种异常 解决办法也很简单, 只需要把下面两个参数加大即可 : spark.executor.heartbeatinterval spark.network.timeout spark.executor.heartbeatinterval 参数不能设的比 spark.network.timeout 大 本博客文章除特别声明, 全部都是原创! 转载本文请加上 : 转载自过往记忆 ( 本文链接 : () 5 / 5
Hive:用Java代码通过JDBC连接Hiveserver
Hive: 用 Java 代码通过 JDBC 连接 Hiveserver 我们可以通过 CLI Client Web UI 等 Hive 提供的用户接口来和 Hive 通信, 但这三种方式最常用的是 CLI;Client 是 Hive 的客户端, 用户连接至 Hive Server 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点, 并且在该节点启动 Hive Server
Flume-ng与Mysql整合开发
Flume-ng 与 Mysql 整合开发 我们知道,Flume 可以和许多的系统进行整合, 包括了 Hadoop Spark Kafka Hbase 等等 ; 当然, 强悍的 Flume 也是可以和 Mysql 进行整合, 将分析好的日志存储到 Mysql( 当然, 你也可以存放到 pg oracle 等等关系型数据库 ) 不过我这里想多说一些 :Flume 是分布式收集日志的系统 ; 既然都分布式了,
Guava学习之Resources
Resources 提供提供操作 classpath 路径下所有资源的方法 除非另有说明, 否则类中所有方法的参数都不能为 null 虽然有些方法的参数是 URL 类型的, 但是这些方法实现通常不是以 HTTP 完成的 ; 同时这些资源也非 classpath 路径下的 下面两个函数都是根据资源的名称得到其绝对路径, 从函数里面可以看出,Resources 类中的 getresource 函数都是基于
Hadoop&Spark解决二次排序问题(Hadoop篇)
Hadoop&Spark 解决二次排序问题 (Spark 篇 ) 问题描述 二次排序就是 key 之间有序, 而且每个 Key 对应的 value 也是有序的 ; 也就是对 MapReduce 的输出 (KEY, Value(v 1,v 2,v 3,...,v n )) 中的 Value(v 1,v 2,v 3,...,v n ) 值进行排序 ( 升序或者降序 ), 使得 Value(s 1,s 2,s
Flink on YARN部署快速入门指南
Apache Flink 是一个高效 分布式 基于 Java 和 Scala( 主要是由 Java 实现 ) 实现的通用大数据分析引擎, 它具有分布式 MapReduce 一类平台的高效性 灵活性和扩展性以及并行数据库查询优化方案, 它支持批量和基于流的数据分析, 且提供了基于 Java 和 Scala 的 API 从 Flink 官方文档可以知道, 目前 Flink 支持三大部署模式 :Local
通过Hive将数据写入到ElasticSearch
我在 使用 Hive 读取 ElasticSearch 中的数据 文章中介绍了如何使用 Hive 读取 ElasticSearch 中的数据, 本文将接着上文继续介绍如何使用 Hive 将数据写入到 ElasticSearch 中 在使用前同样需要加入 elasticsearch-hadoop-2.3.4.jar 依赖, 具体请参见前文介绍 我们先在 Hive 里面建个名为 iteblog 的表,
如何在 Apache Hive 中解析 Json 数组
问题 我们都知道,Hive 内部提供了大量的内置函数用于处理各种类型的需求, 参见官方文档 :Hive Operators and User-Defined Functions (UDFs) 我们从这些内置的 UDF 可以看到两个用于解析 Json 的函数 :get_json_object 和 json_tuple 用过这两个函数的同学肯定知道, 其职能解析最普通的 Json 字符串, 如下 : hive
使用MapReduce读取XML文件
使用 MapReduce 读取 XML 文件 XML( 可扩展标记语言, 英语 :extensible Markup Language, 简称 : XML) 是一种标记语言, 也是行业标准数据交换交换格式, 它很适合在系统之间进行数据存储和交换 ( 话说 Hadoop H ive 等的配置文件就是 XML 格式的 ) 本文将介绍如何使用 MapReduce 来读取 XML 文件 但是 Had oop
Hadoop元数据合并异常及解决方法
Hadoop 元数据合并异常及解决方法 这几天观察了一下 Standby NN 上面的日志, 发现每次 Fsimage 合并完之后,Standby NN 通知 Active NN 来下载合并好的 Fsimage 的过程中会出现以下的异常信息 : 2014-04-23 14:42:54,964 ERROR org.apache.hadoop.hdfs.server.namenode.ha. StandbyCheckpointer:
使用Apache Beam读写HDFS上的文件
Apache Beam( 原名 Google DataFlow) 是 Google 在 2016 年 2 月份贡献给 Apache 基金会的 Apache 孵化项目, 被认为是继 MapReduce,GFS 和 BigQuery 等之后,Google 在大数据处理领域对开源社区的又一个非常大的贡献 Apache Beam 的主要目标是统一批处理和流处理的编程范式, 为无限, 乱序,web-scale
在Spring中使用Kafka:Producer篇
在某些情况下, 我们可能会在 Spring 中将一些 WEB 上的信息发送到 Kafka 中, 这时候我们就需要在 Spring 中编写 Producer 相关的代码了 ; 不过高兴的是,Spring 本身提供了操作 Kafka 的相关类库, 我们可以直接通过 xml 文件配置然后直接在后端的代码中使用 Kafka, 非常地方便 本文将介绍如果在 Spring 中将消息发送到 Kafka 在这之前,
三种方法实现Hadoop(MapReduce)全局排序(1)
三种方法实现 Hadoop(MapReduce) 全局排序 () 三种方法实现 Hadoop(MapReduce) 全局排序 () 我们可能会有些需求要求 MapReduce 的输出全局有序, 这里说的有序是指 Key 全局有序 但是我们知道,MapReduce 默认只是保证同一个分区内的 Key 是有序的, 但是不保证全局有序 基于此, 本文提供三种方法来对 MapReduce 的输出进行全局排序
PowerPoint 演示文稿
Apache Spark 与 多 数 据 源 的 结 合 田 毅 @ 目 录 为 什 么 会 用 到 多 个 数 据 源 Spark 的 多 数 据 源 方 案 有 哪 些 已 有 的 数 据 源 支 持 Spark 在 GrowingIO 的 实 践 分 享 为 什 么 会 用 到 多 个 数 据 源 从 数 据 本 身 来 看 大 数 据 的 特 性 之 一 :Variety 数 据 的 多 样
Flink快速上手之Scala API使用
Flink 快速上手之 Scala API 使用 本文将介绍如何通过简单地几步来开始编写你的 Flink Scala 程序 构建工具 Flink 工程可以使用不同的工具进行构建, 为了快速构建 Flink 工程, Flink 为下面的构建工具分别提供了模板 : 1 SBT 2 Maven 这些模板可以帮助我们组织项目结构并初始化一些构建文件 SBT 创建工程 1 使用 Giter8 可以使用下面命令插件一个
解决百度统计无法获取https来源的referrer
我们都知道, 当我们的页面请求一个 js 文件 一个 cs 文件或者点击到其他页面, 浏览器一般都会给这些请求头加上表示来源的 Referrer 字段 Referrer 在分析用户的来源时非常有用, 比如大家熟悉的百度统计里面就利用到 Referrer 信息了 但是遗憾的是, 目前百度统计仅仅支持来源于 http 页面的 referrer 头信息 ; 也就是说, 如果你网站是 http 的, 那么百度统计只能统计到从其他
untitled
Work Managers 什 Work Managers? WebLogic Server 9.x 行 (thread) 理 thread pool 數量 立 execute queues 來 量 理 thread count, thread priority 參數 理 thread pool 數量? WebLogic Server 9.x 理 行 (thread) (self-tuning) 句
06?????k?g
( 一 ) 補 養 劑 -1 北 沙 3.0 當 歸 3.0 6g 養 陰 疏 肝 胸 陽 虛 發 熱 泄 瀉 及 0102 麥 門 3.0 枸 杞 3.0 tid 膜 炎, 肝 炎, 外 感 未 解 者, 不 一 貫 煎 生 地 8.0 川 楝 2.0 萎 縮 性 胃 炎, 宜 柳 州 醫 記 肋 間 神 經 痛, 神 經 官 能 症 肉 桂 0.2 山 藥 0.9 4g 炮 附 0.2 澤 瀉
WebSphere Studio Application Developer IBM Portal Toolkit... 2/21 1. WebSphere Portal Portal WebSphere Application Server stopserver.bat -configfile..
WebSphere Studio Application Developer IBM Portal Toolkit... 1/21 WebSphere Studio Application Developer IBM Portal Toolkit Portlet Doug Phillips ([email protected]),, IBM Developer Technical Support Center
三种恢复 HDFS 上删除文件的方法
三种恢复 HDFS 上删除文件的方法 我们每天都可能会操作 HDFS 上的文件, 这就很难避免误操作, 比如比较严重的误操作就是删除文件 本文针对这个问题提供了三种恢复误删除文件的方法, 希望对大家的日常运维有所帮助 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 通过垃圾箱恢复 HDFS 为我们提供了垃圾箱的功能, 也就是当我们执行
IP505SM_manual_cn.doc
IP505SM 1 Introduction 1...4...4...4...5 LAN...5...5...6...6...7 LED...7...7 2...9...9...9 3...11...11...12...12...12...14...18 LAN...19 DHCP...20...21 4 PC...22...22 Windows...22 TCP/IP -...22 TCP/IP
奇虎360正式开源深度学习调度平台XLearning
本文系奇虎 360 系统部相关工程师投稿 近两年人工智能技术发展迅速, 以 Google 开源的 TensorFlow 为代表的各种深度学习框架层出不穷 为了方便算法工程师使用各类深度学习技术, 减少繁杂的诸如运行环境部署运维等工作, 提升 GPU 等硬件资源利用率, 节省硬件投入成本, 奇虎 360 系统部大数据团队与人工智能研究院联合开发了深度学习调度平台 XLearning XLearning
電機工程系認可證照清單 2011/7/1
南 台 科 技 大 學 電 機 工 程 系 專 業 證 照 課 程 實 施 要 點 96 年 10 月 05 日 系 務 會 議 通 過 100 年 06 月 30 日 系 務 會 議 修 正 通 過 101 年 06 月 21 日 系 務 會 議 修 正 通 過 一 本 系 為 提 升 學 生 的 專 業 技 能, 特 訂 定 本 辦 法 二 實 施 對 象 : 本 系 日 間 部 96 學 年
江门:中国第一侨乡
开平碉楼 赤坎古镇 油菜花 梁启超故居 小鸟天堂 川岛 富康温 泉 帝都温泉 中国第一侨乡 封面... 1 一... 4 二 江门必玩景点... 6 1 碉楼游... 6 2 海岛游... 7 3 温泉游... 9 4 人文游... 11 5 生态游... 13 三 江门行程推荐... 四 江门娱乐... 五 江门美食... 六 江门购物... 七 江门住宿... 八 江门交通... 1 飞机...
untitled
1....2...2...6 2....10 3. UDP...15 4. TCP...16...16...16 1 1. PC COM1 COM2 COM1 COM2 DTU 2 3 4 COM1 COM1 COM2 COM ID 13900000000 DTU COM1 5 COM2 DTU DTU DTU DTU DTU DTU DTU ID ID 3031 3032 2 ID 13900000001
培 训 机 构 介 绍 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开 展 Hadoop 云 计 算 的 培
Hadoop 2.0 培 训 Hadoop 2.0Training Hadoop 2.0 运 维 与 开 发 实 战 培 训 邀 请 函 培 训 机 构 介 绍 www.zkpk.org 中 科 普 开 是 国 内 首 家 致 力 于 IT 新 技 术 领 域 的 领 航 者, 专 注 于 云 计 算 大 数 据 物 联 网 移 动 互 联 网 技 术 的 培 训, 也 是 国 内 第 一 家 开
是 喔, 就 是 那 個 在 BBS 醫 療 版 跟 你 嗆 聲, 自 稱 有 三 十 多 年 推 拿 經 驗 的 大 叔 嗎? 一 個 看 來 頗 為 清 秀 的 女 生 問 道, 她 語 氣 中 略 感 訝 異 是 啊, 什 麼 推 拿 按 摩 有 多 好, 還 要 人 生 病 盡 量 不 要
[tw] 天 醫 傳 奇 回 憶 篇 [/tw][cn] 天 医 传 奇 回 忆 篇 [/cn] 少 年 的 時 光 是 容 易 凋 謝 的 玫 瑰, 又 像 是 不 停 等 的 河 流, 總 會 在 某 一 個 渡 口 駐 岸 時, 才 發 現, 滾 滾 河 水 夾 帶 著 輕 舟, 在 不 經 意 間, 已 經 漂 流 過 萬 重 山 A.D.1999.12.31 傍 晚 新 竹 綠 莎 庭 園
Workbook_Chinese copy.pdf
FRONT LINE DEFENDERS 9 x 10 11 12 13 14 ..................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................
Apache Spark 2.4 新增内置函数和高阶函数使用介绍
Apache Spark 2.4 新增了 24 个内置函数和 5 个高阶函数, 本文将对这 29 个函数的使用进行介绍 关于 Apache Spark 2.4 的新特性, 可以参见 Apache Spark 2.4 正式发布, 重要功能详细介绍 如果想及时了解 Spark Hadoop 或者 Hbase 相关的文章, 欢迎关注微信公共帐号 :iteblog_hadoop 针对数组类型的函数 array_distinct
1
PRIMETON TECHNOLOGIES, LTD. EOS EOS Manager No part of this document may be reproduced, stored in any electronic retrieval system, or transmitted in any form or by any means, mechanical, photocopying,
RunPCPB8 new feature.PDF
Client/Server Web N-Tier PowerBuilder 8.0 PowerBuilder 8.0 IDE Client/Server Web PowerBuilder / Web-based IT IDE PowerBuilder PowerBuilder 8.0 PowerBuilder 8.0 PowerBuilder 8.0 PowerBuilder Sybase PowerBuilder
Socket Socket TcpClient Socket.Connect TcpClient.Connect Socket.Send / Receive NetworkStream 6-5
6 6-1 6-2 Socket 6-2-1 Socket 6-2-2 TcpClient 6-3 6-3-1 Socket.Connect 6-3-2 TcpClient.Connect 6-4 6-4-1 Socket.Send / Receive 6-4-2 NetworkStream 6-5 6-5-1 Socket.Close 6-5-2 TcpClient.Close 6-6 DateTime
团 学 要 闻 我 校 召 开 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 3 月 17 日, 我 校 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 在 行 政 办 公 楼 五 楼 会 议 室 举 行, 校 团 委 委 员 各 院 ( 系 ) 团 委 书 记 校 学 生
共 青 团 工 作 简 报 2011 年 第 1 期 共 青 团 大 连 海 洋 大 学 委 员 会 团 学 要 闻 : 导 读 我 校 召 开 共 青 团 五 届 九 次 全 委 ( 扩 大 ) 会 议 我 校 在 大 连 市 大 学 生 创 新 创 意 作 品 大 赛 中 取 得 佳 绩 校 团 委 召 开 学 生 干 部 思 想 动 态 座 谈 会 校 团 委 组 织 开 展 弘 扬 雷 锋
版权声明
SG3124 http://www.utt.com.cn 2000-2008 URL Internet Web EULA EULA UTT HiPER PN 0901-0003-001 DN PR-PMMU-1180.03-PPR-CN-1.0A ...1 1...2 1.1...2 1.2...2 1.3...3 1.4...3 2 1.4.1...3 1.4.2...4...5 2.1...5
关于建立境内违法互联网站黑名单管理制度的通知
关 于 建 立 境 内 违 法 互 联 网 站 黑 名 单 管 理 制 度 的 通 知 各 省 自 治 区 直 辖 市 和 计 划 单 列 市 通 信 管 理 局 新 闻 办 教 育 厅 ( 教 委 ) 公 安 厅 ( 局 ) 国 家 安 全 厅 ( 局 ) 文 化 厅 ( 局 ) 卫 生 厅 ( 局 ) 工 商 行 政 管 理 局 广 播 影 视 局 新 闻 出 版 局 食 品 药 品 监 督 管
? 這 全 都 是 市 政 府 提 供 給 我 的 資 料 低 底 盤 公 車 計 畫 96 年 預 算 新 台 幣 4,500 萬 元 97 年 預 算 新 台 幣 1 億 6,500 萬 元 98 年 預 算 新 台 幣 3 億 2,300 萬 元, 共 有 307 台 低 底 盤 公 車,99
民 政 部 門 質 詢 第 13 組 質 詢 日 期 : 中 華 民 國 98 年 10 月 6 日 質 詢 對 象 : 民 政 部 門 有 關 各 單 位 質 詢 議 員 : 陳 嘉 銘 周 柏 雅 陳 碧 峰 李 文 英 顏 聖 冠 王 孝 維 洪 健 益 計 7 位 時 間 126 分 鐘 速 記 錄 98 年 10 月 6 日 速 記 : 何 采 穎 主 席 ( 李 議 員 慶 元 ): 現
Chapter #
第三章 TCP/IP 协议栈 本章目标 通过本章的学习, 您应该掌握以下内容 : 掌握 TCP/IP 分层模型 掌握 IP 协议原理 理解 OSI 和 TCP/IP 模型的区别和联系 TCP/IP 介绍 主机 主机 Internet TCP/IP 早期的协议族 全球范围 TCP/IP 协议栈 7 6 5 4 3 应用层表示层会话层传输层网络层 应用层 主机到主机层 Internet 层 2 1 数据链路层
UDP 8.2 TCP/IP OSI OSI 3 OSI TCP/IP IP TCP/IP TCP/IP Transport Control Protocol TCP User Datagram Protocol UDP TCP TCP/IP IP TCP TCP/IP TC
8 TCP/IP TCP/IP TCP OSI 8.1 OSI 4 end to end A B FTP OSI Connection Management handshake Flow Control Error Detection IP Response to User s Request TCP/IP TCP 181 UDP 8.2 TCP/IP OSI OSI 3 OSI 3 8.1 TCP/IP
(Methods) Client Server Microsoft Winsock Control VB 1 VB Microsoft Winsock Control 6.0 Microsoft Winsock Control 6.0 1(a). 2
(2005-01-26) (2005-01-26) (2005-02-27) PIC_SERVER (9) VB TCP/UDP Visual Basic Microsoft Winsock Control (MSWINSCK.OCX) UDP TCP Client Server Visual Basic UDP/TCP PIC_SERVER UDP/TCP 1. Microsoft Winsock
目 录 监 管 资 讯 2016 年 全 国 保 险 监 管 工 作 会 议 召 开...3 协 会 动 态 赤 峰 保 险 行 业 协 会 召 开 数 据 统 计 和 信 息 宣 传 总 结 表 彰 会 议...5 赤 峰 市 保 险 行 业 协 会 秘 书 处 召 开 2015 年 度 述 职
0 目 录 监 管 资 讯 2016 年 全 国 保 险 监 管 工 作 会 议 召 开...3 协 会 动 态 赤 峰 保 险 行 业 协 会 召 开 数 据 统 计 和 信 息 宣 传 总 结 表 彰 会 议...5 赤 峰 市 保 险 行 业 协 会 秘 书 处 召 开 2015 年 度 述 职 总 结 会...6 聚 焦 理 赔 平 安 人 寿 赤 峰 中 心 支 公 司 2.5 小 时 重
同 时, 采 取 提 供 新 闻 线 索 和 素 材 安 排 专 访 等 方 式 主 动 为 新 闻 媒 体 服 务, 为 采 访 报 道 活 动 创 造 便 利 条 件 建 设 网 络 信 息 发 布 平 台 2013 年 9 月 开 通 中 央 纪 委 监 察 部 网 站,2015 年 1 月
中 国 坚 持 公 开 透 明 反 腐 败 的 成 功 实 践 中 共 十 八 大 以 来, 中 国 政 府 积 极 履 行 联 合 国 反 腐 败 公 约, 秉 持 公 开 透 明 反 腐 理 念, 拓 宽 信 息 公 开 渠 道, 开 门 搞 监 督, 支 持 鼓 励 公 众 依 法 有 序 参 与 监 督, 取 得 良 好 社 会 效 果 一 加 强 信 息 公 开 平 台 建 设, 充 分
公務員服務法第13條相關解釋彙整表
1 2 3 4 5 6 7 公 務 員 服 務 法 ( 以 下 簡 稱 服 務 法 ) 13 條 所 稱 私 營 商 業 及 經 理 公 務 員 得 否 依 法 兼 任 公 營 事 業 或 公 司 代 表 官 股 之 董 事 監 察 人 原 經 營 商 業 之 人, 任 為 有 俸 給 之 公 務 員 者, 得 否 繼 續 經 營 現 任 官 吏 不 得 充 任 民 營 實 業 公 司 董 監 事
资 讯 速 递 台 基 于 大 数 据 的 学 校 督 导 评 估 系 统 建 设 上 海 市 闵 行 区 人 民 政 府 教 育 督 导 室 ( 摘 要 ) 闵 行 教 育 在 深 化 教 育 改 革 探 索 管 办 评 分 离 的 背 景 下, 把 教 育 督 导 评 估 系 统 建 设 作 为
责 任 督 学 专 辑 专 报 2015 年 第 四 期 ( 总 第 6 期 ) 闵 行 区 人 民 政 府 教 育 督 导 室 编 2016 年 01 月 本 期 目 录 资 讯 速 递 台 1. 基 于 大 数 据 的 学 校 督 导 评 估 系 统 建 设 督 导 室 2. 互 联 网 + 方 兴 未 艾, 闵 行 督 导 力 拔 头 筹 陈 惠 红 收 获 与 随 想 3. 用 行 动 诠
時間軸上的竹蓮記憶 學務主任 黃雅彙 我不是竹蓮國小的畢業校友 但對於身為新竹人的我來 說 仔細回想起來 似乎和竹蓮有著一種特別的緣分 對竹蓮國小最初的印象是在小學的時候 猶記得年幼的 我經過一段時日的啦啦隊舞蹈訓練後 老師便帶著我們從學 校步行到竹蓮國小來參加比賽 一踏入竹蓮校門 映入眼簾 的是黑
鎏 金 歲 月 竹蓮 生日快樂 教務主任 李曉蘭 時間過得很快 轉眼間 來到竹蓮即將邁入第十五個年 頭 回想當初剛從外縣市調入新竹市時 對新竹市的學校並 不了解 一心只想著 只要能調成 哪個學校都可以 沒想 到自己就在竹蓮安居樂業到此 眼看再過幾年就可以從竹蓮 退休了 師專畢業後 這是我待過最久的學校了 我想 這 就是我和竹蓮的緣分吧 近幾年 竹蓮由於少子化和鄰近社區設校的關係 面臨 不小的減班壓力
Microsoft Word - 临政办发6.doc
临 沂 市 人 民 政 府 办 公 室 文 件 临 政 办 发 2016 6 号 临 沂 人 民 政 府 办 公 室 关 于 印 发 临 沂 市 地 方 史 志 事 业 发 展 规 划 纲 要 (2016-2020 年 ) 的 通 知 各 县 区 人 民 政 府, 市 政 府 各 部 门 各 直 属 机 构, 临 沂 高 新 技 术 产 业 开 发 区 管 委 会, 临 沂 经 济 技 术 开 发
VIDEOJET connect 7000 VJC-7000-90 zh- CHS Operation Manual VIDEOJET connect 7000 zh-chs 3 目 录 1 浏 览 器 连 接 7 1.1 系 统 要 求 7 1.2 建 立 连 接 7 1.2.1 摄 像 机 中 的 密 码 保 护 7 1.3 受 保 护 的 网 络 7 2 系 统 概 述 8 2.1 实 况
