Training

Size: px
Start display at page:

Download "Training"

Transcription

1 计算机组织与系统结构存储系统 Memory System ( 第九讲 ) 程旭

2 局部性原理 局部性原理 : CPU 访问存储器时, 无论是取指令还是存取数据, 所访问的存储单元都趋于聚集在一个较小的连续区域中 两种不同类型的局部性 : 时间局部性 (Temporal Locality): 如果一个信息项正在被访问, 那么在近期她很可能还会被再次访问 - 原因 : 程序循环 堆栈 空间局部性 (Spatial Locality): 在最近的将来将用到的信息很可能与现在正在使用的信息在空间地址上是临近的 - 原因 : 指令顺序执行 数组存放

3 本讲提纲 存储系统引论 存储工艺技术 : SRAM 寄存器堆和 DRAM 高速缓冲存储器 (cache) 虚拟存储系统 总结

4 教学目标 : 已经掌握的内容 计算机的五个基本部件 处理器 输入 控制 存储器 数据通路 输出 本讲主题 : 存储系统

5 存储系统的扩展图示 处理器 控制 Memory 数据通路 Memory Memory Memory Memory 速度 : 最快 最慢 容量 : 最小 最大 每位成本 : 最高 最低

6 Typical Memory Hierarchy Datapath On-Chip Components Control RegFile Instr Data Cache Cache Second -Level Cache (SRAM) Third- Level Cache (SRA M) Main Memory (DRAM) Secondar y Memory (Disk Or Flash) Speed (cycles): ½ s 1 s 10 s 100 s ,000,000 s Size (bytes): 100 s 10K s M s G s T s Cost/bit: highest lowest Principle of locality + memory hierarchy presents programmer with as much memory as is available in the cheapest technology at the speed offered by the fastest technology

7 存储层次 : 工作原理 在任何指定时间, 数据只能在相邻的两级之间拷贝 : 较高级 : 与处理器较近的存储级 - 较小 较快 使用较昂贵的技术工艺 较低级 : 与处理器较远的存储级 - 较大 较慢 使用较廉价的技术工艺 存储块 : 在两级存储层次中, 信息出现或者不出现的最小单位 至处理器 来自处理器 较高级存储器 X 块 较低级存储器 Y 块

8 存储层次 : 术语 命中 (Hit): 数据在较高层的某一块中出现 ( 例如 X 块 ) 命中率 (Hit Rate): 在较高层发现存储访问的比率 命中时间 (Hit Time): 访问在较高层命中数据的时间 RAM 访问时间 + 确定命中 / 失效的时间 失效 (Miss): 需要从较低层中的块中找回数据 (Y 块 ) 失效率 (Miss Rate) = 1 - ( 命中率 ) 失效损失 (Miss Penalty): 替换较高层存储的一个数据块的时间 + 将该块交付给处理器的时间 命中时间 << 失效损失 至处理器 来自处理器 较高级存储器 X 块 较低级存储器 Y 块

9 存储层次 : 如何工作? 时间局部性 (Temporal Locality): 如果一个信息项正在被访问, 那么在近期她很可能还会被再次访问 将最近被访问的信息项放在离处理器较近的地方 空间局部性 (Spatial Locality): 在最近的将来将用到的信息很可能与现在正在使用的信息在空间地址上是临近的 将包括临近存储字的数据块一起移动到较高层存储中 至处理器 来自处理器 较高级存储器 X 块 较低级存储器 Y 块

10 Memory Address (one dot per access) Memory Reference Patterns Temporal Locality Spatial Locality Donald J. Hatfield, Jeanette Gerald: Program Restructuring for Virtual Memory. IBM Systems Journal 10(3): (1971) Time

11 Principle of Locality Principle of Locality: Programs access small portion of address space at any instant of time (spatial locality) and repeatedly access that portion (temporal locality) What program structures lead to temporal and spatial locality in instruction accesses? In data accesses? What structures defeat temporal and spatial locality in instruction and data accesses?

12 Memory Reference Patterns Address n loop iterations Instruction fetches Stack accesses subroutine call argument access subroutine return Data accesses scalar accesses Time

13 现代计算机中的存储层次 通过利用程序访问的局部性 : 向用户提供最廉价工艺实现的存储器的存储容量 向用户提供最快速工艺可能实现的访问速度 处理器 控制 数据通路 寄存器堆 片载 cache 第二级 Cache (SRAM) 主存 (DRAM) 二级存储 ( 磁盘 )

14

15 存储层次技术 随机访问 : 随机是好事 : 对所有位置的访问时间是相同的 DRAM: Dynamic Random Access Memory - 高密 低功耗 价廉 慢速 - 动态 : 需要定期刷新 SRAM: Static Random Access Memory - 低密 高功耗 昂贵 快速 - 静态 : 如果不掉电, 内容将永久保持! 不是太随机的访问技术 : 访问时间因位置的不同而不同, 因访问的时刻不同而不同 例如 : 磁盘 磁带 CDROM 后续讲授内容将侧重于随机访问技术 主存 : DRAMs Caches: SRAMs

16 随机存储器 (RAM) 技术 为什么计算机设计人员需要了解 RAM 技术? 处理器的性能通常受到存储器代宽的限制 随着集成电路密度的增加, 一些存储器将和处理器集成在同一芯片上 - 片载存储器来满足特殊需求 - 指令 cache - 数据 cache - 写缓冲器 为什么不用触发器技术来实现 RAM? 密度 :RAM 需要更高的密度

17 Performance 微处理器 -DRAM 的延迟差距 1000 CPU Proc 60%/yr Processor-Memory Performance Gap: (grows 50% / year) DRAM DRAM 7%/yr. Time

18 静态 RAM 单元 6 管 SRAM 单元 0 1 word ( 行选 ) word 0 1 bit bit 写操作 : bit 1. 驱动位线 (bit) 2. 选择行 读操作 : 拉高 1. 对两条位线预充电, 使得 bit Vdd 2. 选择行 3. 存储单元将一条线拉为低 4. 列上的信号放大器检测 bit 和 bit 之间的差异 bit

19 典型的 SRAM 组织 : 16 字 4 位 Din 3 Din 2 Din 1 Din 0 Precharge WrEn Wr Driver & Wr Driver & Wr Driver & Wr Driver & - Precharger + - Precharger + - Precharger + - Precharger + SRAM Cell SRAM Cell SRAM Cell SRAM Cell SRAM Cell SRAM Cell SRAM Cell SRAM Cell Word 0 Word 1 Address Decoder A0 A1 A2 A3 : : : : SRAM Cell SRAM Cell SRAM Cell SRAM Cell - Sense Amp + - Sense Amp + - Sense Amp + - Sense Amp + Word 15 Dout 3 Dout 2 Dout 1 Dout 0

20 典型 SRAM 的逻辑图 A N WE_L OE_L 2 N words x M bit SRAM M D 写使能信号通常是低电平有效 (WE_L) Din 和 Dout 是结合在一起的 : 需要一个新的控制信号 输出使能信号 (OE_L) WE_L 有效 (Low), OE_L 禁止 (High) - D 为数据输入 WE_L 禁止 (High), OE_L 有效 (Low) - D 为数据输出 WE_L 和 OE_L 都有效 : - 结果不确定. 千万不要这样做!!!

21 典型的 SRAM 定时 A N WE_L OE_L 2 N words x M bit SRAM M D Write Timing: Read Timing: D Data In High Z Garbage Data Out Junk Data Out A Write Address Junk Read Address Read Address OE_L WE_L Write Hold Time Write Setup Time Read Access Time Read Access Time

22 进一步分析 SRAM 单元 6 管 SRAM 单元 word ( 行选择 ) word P1 P2 N1 N2 bit bit bit bit 通常 SRAM 具有许多存储字 ( 行 ) 位线 (bit lines) 就很长, 因而也就具有较大的电容 晶体管 N1 N2 P1 和 P2 就必须非常小 晶体管 N1 P1 没有足够的能量来快速驱动位线 (Bit): 需要增设一个信号放大器 (sense amplifier) 来比较 Bit 和 Bit

23 寄存器堆所用的双端口 ( 读 ) SRAM 单元 6-Transistor SRAM Cell SelA SelB SelA SelB P1 P2 N1 N2 b a b a 具有较短的位线 (bit lines) 和较大的晶体管 : N1 和 P1 能够很快地驱动位线 a N2 和 P2 能够很快地驱动位线 b 可以同时读取两个存储字

24 寄存器堆所用的单端口 ( 写 ) SRAM 单元 SelA SelB SelW w b a w 为了将新值写入存储单元 : 我们需要同时驱动两边 每次只能写入一个存储字 增设另外一对位线 (w 和 w) 可以同时进行读和写

25 双读端口 单写端口的寄存器堆 : : busw<31> busw<1> busw<0> WrEn - Wr Driver + - Wr Driver + - Wr Driver + SelA0 Register Cell Register Cell Register Cell : : : Register Cell Register Cell Register Cell SelB0 SelW0 SelA31 SelB31 Address Decoder Ra Rb Rw SelW31 busa<31> busa<1> busa<0> busb<31> busb<1> busb<0>

26 单管单元 写操作 : 1. 驱动位线 2. 选择行 读操作 : 1. 预充电, 使得位线 Vdd 2. 选择行 3. 单元和位线共享电荷位线 - 在位线上只有非常小的电压变化 4. 感应 ( 非常奇妙的感应放大器 ) - 可以检测到大约一百万电子伏特的变化 5. 写 : 恢复电压值 刷新 1. 仅仅需要对每个单元进行一次假读操作 行选择

27 DRAM 引论 Dynamic RAM (DRAM): 需要刷新 密度非常高 耗电非常低 ( 工作时 0.1~0.5 W, 等待 (standby)0.25 ~10 mw) 每位的成本非常低 管脚敏感 : - 输出使能 (Output Enable: OE_L) - 写使能 (Write Enable:WE_L) addr - 行地址过滤 (Row address strobe: ras) - 列地址过滤 (Col address strobe:cas) log N 为了提高性能 页模式操作 (Page mode operation) 2 r o w cell array N bits c o l sense 单感应放大器耗电较少, 面积小 D

28 传统的 DRAM 组成 位线 ( 数据 ) 行译码器 RAM 单元阵列 RAM Cell Array 每个交叉点代表一个单管 DRAM 单元 字选择 ( 行选择 ) 行地址 列选择器 & I/O 电路 列地址 数据 行和列地址在一起 : 每次选择一位

29 512 行 典型的 DRAM 组成 典型 DRAMs: 并行访问多位 例如 : 2 Mb DRAM = 256K x 8 = 512 行 x 512 列 x 8 位 行和列地址并行作用于所有 8 个位面 (planes) 位面 列 位面 Kb DRAM 位面 Kb DRAM 的一个位面 256 Kb DRAM D<7> D<1> D<0>

30 典型 DRAM 的逻辑框图 RAS_L CAS_L WE_L OE_L A 256K x 8 DRAM 9 8 D 控制信号 (RAS_L, CAS_L, WE_L, OE_L) 都是低电平有效 Din 和 Dout 合并在一起 (D): WE_L 有效 ( 低 ), OE_L 禁止 ( 高 ) 时, - D 作为数据输入管脚 WE_L 禁止 ( 高 ), OE_L 有效 ( 低 ) - D 作为数据输出管脚 行和列地址共享相同的一组管脚 (A) RAS_L 变成低 : 管脚 A 被锁定为行地址 CAS_L 变成低 : 管脚 A 被锁定为列地址

31 周期时间与访问周期 访问时间 周期时间 时间 DRAM ( 读 / 写 ) 周期时间 >> DRAM ( 读 / 写 ) 访问时间 DRAM ( 读 / 写 ) 周期时间 : 我们可以以多快的频率来开始进行存储访问? 比喻 : 我们只能在 4x 的年度的夏天, 才能收看到奥运会足球赛 DRAM ( 读 / 写 ) 访问时间 : 一旦我们开始进行访问, 那么要过多长时间可以获得数据? 比喻 : 在奥运会期间, 一旦我们想看, 最多等一天就可以收看到下一场比赛 DRAM 的带宽限制 : 比喻 : 如果我们 2002 年还想看新的世界级足球比赛?

32 增加带宽 交叉访问 (Interleaving) 非交叉访问的访问模式 : CPU Memory 得到 D1 开始访问 D1 四路交叉访问的访问模式 : 访问体 0 访问体 1 访问体 2 开始访问 D2 访问体 3 我们可以再次访问体 0 CPU Memory Bank 0 Memory Bank 1 Memory Bank 2 Memory Bank 3

33 N 行 快速页模式 (Fast Page Mode)DRAM 常规 DRAM 组成 : N 行 x N 列 x M 位 同时读和写 M 位 每 M 位访问需要一个 RAS / CAS 周期 列地址 N 列 DRAM 行地址 快速页模式 DRAM N x M 寄存器来保存一行 M 位输出 M 位 RAS_L CAS_L 第一个 M 位访问 第二次 M 位访问 A Row Address Col Address Junk Row Address Col Address Junk

34 N 行 快速页模式操作 列地址 N 列 快速页模式 DRAM N x M SRAM 来保存行 DRAM 行地址 在读取一行到寄存器后 仅仅需要 CAS 来访问该行中的其他 M 位存储块 在 RAS_L 保持有效, 同时 CAS_L 不断变化 M 位输出 N x M SRAM M 位 第一个 M 位访问 第二个 M 位访问第三个 M 位访问第四个 M 位访问 RAS_L CAS_L A Row Address Col Address Col Address Col Address Col Address

35 快速页模式操作 DRAM 性能指标 :(x-y-y-y, 例如 ) x:first data access time in clock/bus cycles y:successive burst data access time in clock/bus cycles

36 EDO DRAM(Extended Data Out) (20%-40% 性能提升 ) EDO DRAM 性能指标 : at 66MHz

37 Burst EDO DRAM

38 SDRAM(Synchronous DRAM) 基于 DRAM 的技术 (CAS RAS,etc) 允许在一个 DIMM 中包含多个 BANK DIMM SDRAM 168 pin 增加了 ba0 ba1 两个管脚 与 CPU 或芯片组使用同步时钟信号 五组控制信号, 可组成多种命令 CS:chip select RAS:raw address select CAS:col address select WE:write enable DQM:output enable 更好的支持 Burst 方式 可编程设置模式 : Bust length,sequence...

39 SDRAM(Synchronous DRAM) SDRAM Mode Register

40 SDRAM read

41 SDRAM performance CAS Latency is important x-y-y( 例如 :3-2-2) CAS Latency the RAS-to-CAS delay RAS precharge time 时钟主频 PC66:66MHz PC100:100MHz PC133:133MHz

42 DDR SDRAM DDR:Double data rate 时钟上升沿和下降沿均可以发送数据 ( 带宽 X2!!) 在原有的 SDRAM 的架构基础上加以较小的改进 ( 可复用原有生产线 ) SDRAM 和 DDR 均为开放标准 (JEDEC)(Important!!) SDRAM DDR

43 DDR-SDRAM Timing Diagram

44 图 1: 图 2: SDRAM 的 Bank 和内存规范 4M X 1bit X 32chip 4bank in a dimm SIMM DIMM single/doul in-line memory module 目前使用的都是 DIMM 时钟频率 PC MHz MB/s PC MHz PC MHz 图 1 图 2

45 DDR3 SDRAM

46 DDR vs DDR2 vs DDR3 vs DDR4 All about increasing the rate at the pins Not an improvement in latency In fact, latency can sometimes be worse Internal banks often consumed for increased bandwidth DDR4 (January 2011) Samsung, Currently 2.13Gb/sec Target: 4 Gb/sec 4/18/

47 DRAM Packaging Clock and control signals Address lines multiplexed row/column address ~7 DRAM chip ~12 Data bus (4b,8b,16b,32b) DIMM (Dual Inline Memory Module) contains multiple chips arranged in ranks Each rank has clock/control/address signals connected in parallel (sometimes need buffers to drive signals to all chips), and data pins work together to return wide word e.g., a rank could implement a 64-bit data bus using 16x4-bit chips, or a 64-bit data bus using 8x8-bit chips. A modern DIMM usually has one or two ranks (occasionally 4 if high capacity) A rank will contain the same number of banks as each constituent chip (e.g., 4-8)

48 Main Memory Overview

49 DRAM: Banks Enable concurrent DRAM accesses (overlapping)

50 2Gb x8 DDR3 Chip [Micron] Observe: bank organization

51 Observe: row width, 64 8 bit datapath

52 小结 两种不同类型的程序局部性 时间局部性 (Temporal Locality): 如果正在访问某一信息项, 那么很可能近期还可能再次访问它 空间局部性 (Spatial Locality): 如果正在访问某一信息项, 那么很可能近期还可能访问它附近的其他信息 为了利用程序的局部性原理 : 向用户提供最廉价的工艺技术所能提供的那么大的存储容量 向用户提供最快速的工艺技术所能提供的那么快的访问速度 DRAM 速度虽慢, 但是却价廉 高密 : 向用户提供大存储系统的较好选择 SRAM 速度虽快, 但是昂贵 密度也不很高 : 向用户提供快速访问时间的较好选择

53 微处理器 - 主存 (DRAM) 的延迟差距 1980 microprocessor executes ~one instruction in same time as DRAM access 2017 microprocessor executes ~1000 instructions in same time as DRAM access Slow DRAM access has disastrous impact on CPU performance!

54 Adding Cache to Computer Processor Control Enable? Read/Write Memory Input Datapath PC Registers Address Write Data Cache Program Bytes Memory (including cache) organized around blocks, which are typically multiple words Arithmetic & Logic Unit (ALU) Read Data Data Output Processor organized around words and bytes Processor-Memory Interface I/O-Memory Interfaces 54

55 Chip Photos

56 Alpha 微处理器 Time of a full cache miss in instructions executed: 1st Alpha : 340 ns/5.0 ns = 68 clks x 2 or 136 2nd Alpha : 266 ns/3.3 ns = 80 clks x 4 or 320 3rd Alpha : 180 ns/1.7 ns =108 clks x 6 or 648 1/2X latency x 3X clock rate x 3X Instr/clock?X

57 Cache 如何工作? 时间局部性 (Temporal Locality): 如果一个信息项正在被访问, 那么在近期她很可能还会被再次访问 将最近被访问的信息项放在离处理器较近的地方 空间局部性 (Spatial Locality): 在最近的将来将用到的信息很可能与现在正在使用的信息在空间地址上是临近的 将包括临近存储字的数据块一起移动到较高层存储中 至处理器 来自处理器 较高级存储器 (Cache) X 块 较低级存储器 ( 主存 ) Y 块

58 最简单的 Cache: 直接映射 Cache 主存地址 A B C D E F 主存 4 字节直接映射 Cache Cache 索引 (Index) 位置 0 可以被来自以下位置的数据占用 : 主存位置 0 4 8,... 等等 一般情况 : 任何地址最低两位为 0 的主存位置 地址 <1:0> cache 索引 我们应该将哪一个放置在 cache 中? 我们如何知道到底哪一个在 cache 中呢?

59 Cache 标签 (Tag) 和 Cache 索引 (Index) 假设存储器字节地址为 32 位 : 2 N 字节的直接映射 cache: - Cache 索引 : 存储器地址的较低 N 位 31 - Cache 标签 : 存储器地址的较高 (32 - N) 位 Cache 标签假设为 0x50 N Cache 索引 假设为 0x03 0 有效位 Valid Bit : 作为 cache 状态的一部分保存起来 0x50 : 2 N 字节的直接映射 cache 字节 0 字节 0 字节 0 字节 0 : 字节 2 N -1 2 N- 1

60 Cache 访问示例 开始 :Cache 空访问 ( 失效 ) V 标签 数据 访问 ( 命中 ) 000 M [00001] 010 M [01010] 写 Tag & Set V 失效处理 : 装载数据 访问 ( 失效 ) 000 M [00001] 访问 ( 命中 ) 000 M [00001] 010 M [01010] 装载数据写 Tag & Set V 000 M [00001] 010 M [01010] 人生名言 : 失败是成功之母 : 义务失效 (Compulsory Misses) - ( 冷启失效 )

61 Cache 数据块的定义 Cache 块 : 相同的 cache 标志所指明的 cache 数据 进一步分析前面介绍的示例 : 4 字节直接映射 cache: 块大小 = 1 Byte 可以利用时间局部性 : 如果正在访问某一字节, 那么在最近的将来还可能再次访问这一字节 不能利用空间局部性 : 如果正在访问某一字节, 那么在最近的将来还可能访问这一字节邻近的字节 为了利用空间局部性 : 增加数据块的大小 有效位 Cache 标签 直接映射 Cache 数据 字节 0 字节 1 字节 2 字节 3

62 Direct-Mapped Cache Example One word blocks, cache size = 1K words (or 4KB) Byte offset Valid bit ensures something useful in cache for this index Compare Tag with upper part of Address to see if a Hit Hit Tag Index Index Valid Tag 20 Data 32 Comparator Data Read data from cache instead of memory if a Hit What kind of locality are we taking advantage of?

63 Multiword-Block Direct-Mapped Cache Four words/block, cache size = 1K words Hit Byte offset Data Tag 20 Index 8 2 Word offset IndexValid Tag 20 Data What kind of locality are we taking advantage of? 32

64 块大小的权衡 一般而言, 数据块较大有利于利用空间局部性的优势, 但是 : 较大的数据块 较大的失效损失 : - 需要较长的时间来填充数据块 如果数据块的大小相对于 cache 大小而言太大了, 那么失效率也将增加 平均访问时间等于 : 命中时间 x (1 - 失效率 ) + 失效损失 x 失效率 失效损失 失效率开发空间局部性 数据块较少 : 弥补了时间局部性 平均访问时间 增加了失效损失和失效率 块大小 块大小 块大小

65 另一个极端的示例 有效位 Cache 标签 Cache 数据 Byte 3 Byte 2 Byte 1 Byte 0 0 Cache 大小 = 4 bytes 块大小 = 4 bytes cache 中只能有唯一一个数据块 真 : 如果正在访问一个信息项, 那么很可能在最近的将来还将访问该信息项 但是, 通常却不会立即再次使用该信息项!!! 那么, 再次访问该信息项时, 仍然很可能会失效 - 继续向 cache 中装入数据, 但是在它们被再次使用之前会被强行排出 cache - cache 设计人员最害怕出现的事情 : 乒乓现象 冲突失效 (Conflict Misses) 是下述原因导致的失效 : 不同的存储位置映射到同一 cache 索引 - 解决方案 1: 增大 cache 容量 - 解决方案 2: 对同一 Cache 索引可以有多个信息项

66 两路组相联 Cache 有效位 N 路组相联 : 对每个 Cache 索引有 N 个数据块 (entries) N 个直接映射 cache 并行工作 示例 : 两路组相联 cache Cache 索引来选择 cache 中的某一组 该组种的两个标签进行并行比较 根据标签比较的结果来选择数据 Cache 标签 Cache 数据 Cache 块 0 : : : Cache 索引 Cache 数据 Cache 块 0 : Cache 标签 : 有效位 : 地址标签 比较 Sel1 1 Mux 0 Sel0 比较 Hit 或 Cache 块

67 组相联 Cache 缺点 N 路组相联 Cache 与直接映射 Cache: N 个比较器与 1 个比较器 在输出数据时, 增加了额外的多路选择延迟 在判断命中 / 失效时候, 才可以得到数据 在直接映射 Cache 中, Cache 块在命中 / 失效之前就可以得到 : 可以先假设命中并继续执行, 如果以后发现失效再恢复 有效位 Cache 标签 Cache 数据 Cache 块 0 Cache 索引 Cache 数据 Cache 块 0 Cache 标签 有效位 : : : : : : 地址标签 比较 Sel1 1 Mux 0 Sel0 比较 或 Hit Cache 块

68 另一个极端的示例 : 全相联 : : 全相联 Cache -- 将组相联的思想推广到极限! 完全不要 Cache 索引 并行地比较所有的 Cache 标签 示例 : 块大小 = 32 字节, 需要 N 个 27 位的比较器 根据定义 : 对于全相联 cache, 冲突失效 = 0 31 Cache 标签 (27 位长 ) 4 0 字节选择示例 : 0x01 Cache 标签 X X X X X 有效位 : : Cache 数据 字节 31 字节 1 字节 63 字节 33 : 字节 0 字节 32

69 6 9 Miss Rate vs. Cache Size on the Integer Portion of SPECCPU2000

70 Cache 失效原因小结 义务失效 (Compulsory cold start first reference): 第一次访问某一信息块 人生名言 : 失败是成功之母 冲突失效 (Conflict collision): 多个存储器位置映射到同一 cache 位置 解决方案 1: 增加 cache 容量 解决方案 2: 增加相联度 容量失效 (Capacity): Cache 并不能保存程序访问所需的所有数据块 解决方案 : 增加 cache 容量 无效 (Invalidation): 其他进程 ( 例如, I/O) 修改存储器

71 3Cs Analysis Three sources of misses (SPEC2000 integer and floating-point benchmarks) Compulsory misses 0.006%; not visible Capacity misses, function of cache size Conflict portion depends on associativity and cache size

72 Cache 失效原因问答 直接映射 N 路组相联全相联 Cache 容量义务失效冲突失效容量失效无效失效 大 中 小 高 中 低 高 中 无 低 中 高 相同 相同 相同 注释 : 如果我们运行上百万条的指令, 那么义务失效就微不足道了!

73 三种映射策略比较 直接映射 Cache: 每个存储器位置只能映射到为一一个 cache 位置 在定位时, 不需要进行任何判断 - 当前的信息项替换掉 Cache 中该位置上的前一个信息项 N 路组相联 Cache: 每个存储器位置可以选择 N 个 cache 位置之一 全相联 Cache: 每个 memory 位置可以存放在任何 cache 位置 N 路组相联或全相联 Cache 中的访问失效 : 从存储器中取出新的信息块 为给新块腾出空间, 替换出一个 cache 数据块 于是, 就必须确定到底需要替换掉 Cache 中的哪个数据块!

74 Cache 块替换策略 随机替换策略 : 硬件随机选择一个 Cache 数据项替换出去 最近最少使用策略 (Least Recently Used): 硬件纪录访问历史信息 替换出离现在最长时间没有使用的数据项 一种简单的伪 LRU 策略的实现 : 假设有 64 个全相联的数据块替换指针 硬件替换指针指向一个 cache 数据块 每次对该数据块进行了一次访问, 就将该指针 : - 移向下一个数据项 否则 : 不移动该指针 数据块 0 数据块 1 : 数据块 63

75 Cache 写入策略 : 写穿透与写返回 Cache 读操作比 cache 写操作更容易处理 : 指令 cache 比数据 cache 更容易设计 Cache 写操作 : 如何保证 Cache 和存储器中数据的一致性? 两种选择 : 写返回 (Write Back): 只写入 Cache 当出现 Cache 失效某 Cache 数据块需要替换出 Cache 时, 才将该 Cache 块的数据回写到存储器中 - 对每个 Cache 数据块, 需要增加一个脏位 ( Dirty bit) - 极大地减小存储器的带宽需求 - 控制可能很复杂 写穿透 (Write Through): 同时写入 cache 和存储器 - 什么!!! 这样可以吗? 这样, 存储器不是太慢了吗?

76 写穿透的写缓冲器 Processor Cache DRAM Write Buffer 在 Cache 和存储器之间需要一个写缓冲器 处理器 : 将数据写入 cache 和写缓冲器 存储器控制器 : 将缓冲器中的内容写入存储器 写缓冲器就像一个先进先出栈 (FIFO): 典型数据项的数目 :4 可以很好地工作, 如果 : 存储操作的频率 ( 写时间 ) << 1 / DRAM 写周期 存储器设计人员最害怕的事情 : 存储频率 ( 写时间 ) 1 / DRAM 写操作 写缓冲器饱和

77 写缓冲器饱和 Processor Cache DRAM Write Buffer 存储操作频率 ( 写时间 ) 1 / DRAM 写周期时间 如果这种情况持续很长时间 (CPU 周期时间太快和 / 或连续来了很多存储指令 ): - 无论设置了多大的写缓冲器, 它都有可能溢出 - CPU 时钟周期时间 <= DRAM 写周期时间 对写缓冲器饱和的解决方案 : 使用一个写返回 cache 安装一个第二级 (L2) cache: Processor Cache L2 Cache DRAM Write Buffer

78 写分配与写不分配 : : : 假设 : 将一个 16 位数据写到存储器位置 0x0, 它产生了失效 那么, 我们是否需要读取该块 ( 字节 ) 的其他数据? 是的 : 写分配 (Write Allocate) 不是 : 写不分配 ( Write Not Allocate) 31 Cache Tag Example: 0x00 9 Cache Index Ex: 0x00 4 Byte Select Ex: 0x00 0 Valid Bit : Cache Tag 0x00 : Cache Data Byte 31 Byte 1 Byte 63 Byte 33 : Byte 0 Byte Byte 1023 Byte

79 什么是一个子块? SB3 s V Bit SB2 s V Bit SB1 s V Bit SB0 s V Bit 子块 (Sub-block): 一个数据块中具有自己的有效位的单位数据 例如 :1 KB 直接映射 Cache 32-B 数据块 8-B 子块 - 每个 cache 数据项将具有 : 32/8 = 4 个有效位 写失效 : 只引进该子块中的数据 Cache 标签 : : : : : Cache 数据 B31:B24 Sub-block3 Sub-block2 : Sub-block1 B7 :B0 Sub-block Byte 1023 Byte

80 减少存储器传输时间 CPU CPU CPU Cache bus M mux cache bus M Cache bus M M M M 第一种解决方案高带宽 DRAM 例如 : 页模式 DRAM SDRAM DDRRAM RAMbus 第二种解决方案存储器和 Cache 之间宽数据通路 Cost 第三种解决方案存储模块交叉访问

81 Memory Hierarchy Processor Inner Levels in memory hierarchy Outer Level 1 Level 2 Level 3... Level n Increasing distance from processor, decreasing speed Size of memory at each level As we move to outer levels the latency goes up and price per bit goes down.

82 Local vs. Global Miss Rates Local miss rate: fraction of references to a given level of a cache that miss Local Miss rate L2$ = L2$ Misses / L1$ Misses = L2$ Misses / total_l2_accesses Global miss rate: the fraction of references that miss in all levels of a multilevel cache and go all the way to memory L2$ local miss rate >> than the global miss rate

83 Local vs. Global Miss Rates Local miss rate the fraction of references to one level of a cache that miss Local Miss rate L2$ = $L2 Misses / L1$ Misses Global miss rate the fraction of references that miss in all levels of a multilevel cache L2$ local miss rate >> than the global miss rate Global Miss rate = L2$ Misses / Total Accesses = (L2$ Misses / L1$ Misses) (L1$ Misses / Total Accesses) = Local Miss rate L2$ Local Miss rate L1$ AMAT = Time for a hit + Miss rate Miss penalty AMAT = Time for a L1$ hit + (local) Miss rate L1$ (Time for a L2$ hit + (local) Miss rate L2$ L2$ Miss penalty)

84 8 4 Multilevel Cache Considerations Different design considerations for L1$ and L2$ L1$ focuses on fast access: minimize hit time to achieve shorter clock cycle, e.g., smaller $ L2$, L3$ focus on low miss rate: reduce penalty of long main memory access times: e.g., Larger $ with larger block sizes/higher levels of associativity Miss penalty of L1$ is significantly reduced by presence of L2$, so can be smaller/faster even with higher miss rate For the L2$, fast hit time is less important than low miss rate L2$ hit time determines L1$ s miss penalty L2$ local miss rate >> than the global miss rate

85 8 5 L1 Cache: 32KB I$, 32KB D$ L2 Cache: 256 KB L3 Cache: 4 MB Cache Buster

86 Real world example caches

87 8 7 CPI/Miss Rates/DRAM Access SpecInt2006 Data Only Data Only Instructions and Data

88 8 8 Skylark: Intel s Recent Generation Laptop/Tablet Class CPUs

89 小结 : 程序局部性原理 : 在任何一段时间内, 程序都趋于访问较小的一段地址空间 - 时间局部性 (Temporal Locality) - 空间局部性 (Spatial Locality) 三种主要的 Cache 失效类型 : 义务失效 (Compulsory Misses): 例如, 冷启失效 冲突失效 (Conflict Misses): 增加 cache 容量和 / 或相联度 最要命的现象 : 颠簸现象! 容量失效 (Capacity Misses): 增加 cache 容量 写入策略 (Write Policy): 写穿透 (Write Through): 需要一个写缓冲器 要命的现象 : 写缓冲器饱和! 写返回 : 控制复杂

90 容量访问时间成本 CPU 寄存器 1000s Bytes <1s ns Cache K Bytes 1~10 ns $0.01~0.001/bit 主存 M Bytes 100ns-1us $0.01~0.001 磁盘 T Bytes 毫秒 10-5 ~10-6 美分 磁带无限秒 ~ 分 10-6 存储层次的级别 寄存器堆 Cache 存储器 磁盘 磁带 指令操作数 块 (Blocks) 页 (Pages) 文件 (Files) 分段传输单位 程序 / 编译器 1-8 字节 Cache 控制 字节 操作系统 512-4K 字节 较高级别 较快 用户 / 操作员 Mbytes 较大较低级别

91 存储所有我们已读 ( 写 ) 听 ( 说 ) 看的信息 人类数据类型 / 小时 / 天 (/4 年 ) / 一生 阅读文字 ( 含少量图片 ) 200 K 2-10 M/G G 以 120wpm 说 43 K 0.5 M/G 15 G 以 1KBps 说 3.6 M 40 M/G 1.2 T 50Kb/s POTS 的视频 22 M.25 G/T 25 T 200Kb/s VHS 质量的视频 90 M 1 G/T 100 T 4.3Mb/s HDTV/DVD 视频 1.8 G 20 G/T 1 P

92 虚拟存储 提供一种理想中的非常非常大的存储器 许多工作所需存储器的总和大于实际的物理存储器 每个工作的地址空间大于实际的物理存储器 使得可利用的 ( 快速 昂贵 ) 的物理存储器得以很好地利用 简化存储器的管理 ( 当今, 使用虚拟存储技术的主要原因 ) 使用存储层次, 保持平均访问时间很低 至少包括两级存储层次 : 主存和二级存储 虚拟地址 程序员使用的地址 虚拟地址空间 上述地址的集合 存储器地址 物理存储器中存储字的地址, 也称为物理地址或实地址 ( Real address)

93 虚拟存储系统设计的基本问题 从二级存贮器向主存传输信息块的大小 如果某信息块需要引入主存 M, 但是 M 已经装满, 那么 M 中的一些区域就必须释放, 以为新的信息块腾出空间 替换策略 (replacement policy) M 中的哪个区域将安放新的信息块 放置策略 (placement policy ) 失效的信息项只有在出现页面失效 (fault) 时, 才从第二级存储器中取出 读取 / 装入策略 (fetch/load policy) reg cache mem disk frame pages 分页组织 虚拟和物理地址被划分为同等大小的信息块 页帧 (page frames) 页 (pages)

94 Paged Memory Page Table Memory (DRAM) Page N Page Table Page Table Page 2 Page 1 Page 0 Each process has a dedicated page table. Physical memory non-consecutive.

95 Paged Memory Address Translation OS keeps track of which process is active Chooses correct page table Memory manager extracts page number from virtual address Looks up page address in page table Virtual address (e.g. 32 Bits) Physical address page number page table entry offset offset Physical addresses may (but do not have to) have more or fewer bits than virtual addresses Computes physical memory address from sum of Page address and Offset (from virtual address)

96 Protection Assigning different pages in DRAM to processes also keeps them from accessing each others memory Isolation Page tables handled by OS (in supervisory mode) Sharing is also possible OS may assign same physical page to several processes

97 Write Protection Write protected Page Table Memory (DRAM) Page N Page Table Page Table 0 Page 2 Page 1 Page 0 Exception when writing to protected page (e.g., program code)

98 地址映射 V = {0, 1,..., n - 1} 虚拟地址空间 M = {0, 1,..., m - 1} 物理地址空间 n > m 映射 : V M U {0} 地址映射函数 MAP(a) = a 如果在虚拟地址 a 的数据出现在物理地址 a, 并且 a 在 M 中 = 0 如果在虚拟地址 a 的数据不出现在 M 中 处理器 a 名字空间 V 失效信息项故障缺页处理 a 地址变换机制 0 a' 主存 二级存储 物理地址 OS 完成这一传输

99 分页组织 物理地址 页帧 物理存储器 1K 1K 1K 地址变换映射 页 0 1 1K 1K 映射单位 也是从虚拟存储器到物理存储器的传输单位 K 虚拟存储器 地址映射 10 虚拟地址 页号 偏移量 页表基址寄存器 到页表的索引 V 页表 访问权限 PA + 实际上, 经常采用串联方式 位于物理存储器的表 物理存储器地址

100 地址映射算法 If V = 1 then 所需页存放在页表中存放的页帧地址指示的主存地址中 else 该虚拟地址指示的页存放在第二级存储器中 访问权限 R = 只读, R/W = 读 / 写, X = 只可执行 If 访问的类别与指定的访问权限不相符, then 保护违例故障 (protection_violation_fault) If 没有设置有效位 (V)then 缺页 (page fault)

101 地址映射算法 保护故障 (Protection Fault): 访问权限违例 ( access rights violation); 向硬件 微码或软件故障处理机制发出自陷处理请求 缺页 (Page Fault): 所需页没有驻留在物理存储器中, 也将导致自陷 ; 通常还伴随着上下文切换 (context switch): 当从第二级存储中访取页面时, 当前进程挂起 例如,VAX 11/780 每个进程可以看到 4 G (2 32 字节 ) 的虚拟地址空间 1/2 用于用户区域,1/2 用于被所有进程共享的系统区域 页面大小为 512 字节

102 碎片和再分配 碎片 (Fragmentation) 是由于某种原因, 存储空间中的一些区域变得不可利用 再分配 (Relocation): 将程序或数据移动到地址空间中一个新的区域 ( 可能需要调整所有的指针 ) 外部碎片 (External Fragmentation): 数据块之间的剩余空间 内部碎片 (Internal Fragmentation): 程序大小通常并不是页面大小的整数倍, 最后一个页帧中就会出现 浪费 0 1. 已占用.. k-1

103 最佳页面大小 选择页面大小使得碎片最少 页面大小大 内部碎片变得严重 但是增加页面数量 / 名字空间 更大的页表 一般而论, 通常需要增加页面大小, 这是因为, 随着 RAM 价格下降, 存储器变得更大 处理器速度和磁盘速度之间的差距变大 编程人员需要越来越大的虚拟地址空间 当今, 大多数机器的页面大小为 4K 字节, 另外, 页面大小有继 续增加的趋势

104 碎片 ( 续 ) 页表碎片 (Table Fragmentation): 当页表非常大时, 就出现了页表碎片, 这是因为虚拟地址空间很大 ; 直接映射页表可能占据很大的存储空间 例如 : VAX 系统结构 注意 : 这意味着页表将需要 2 21 表项, 每个表项 4 字节长, 总共 8 M 字节 可供选择的方案 : 21 9 XX 页号 偏移量 00 用户进程的 P0 区域 01 用户进程的 P1 区域 10 系统名字空间 (1) 硬件相联映射 : 每个页帧需要一个表项 (O( M )), 而不是每个页一个表项 (O( N )) (2) 基于散列表的 软件 方案 ( 反向页表 :inverted page table) 页号 偏移量 是否出现访问权限页号物理地址 页表 相联存储或散列查找页号 ( 页号域 )

105 Size of Page Tables E.g., 32-Bit virtual address, 4-KiB pages Single page table size: - 4 x 2 20 Bytes = 4-MiB - 0.1% of 4-GiB memory Total size for 256 processes (each needs a page table) x 4 x 2 20 Bytes = 256 x 4-MiB = 1-GiB - 25% of 4-GiB memory! What about 64-bit addresses? How can we keep the size of page tables reasonable?

106 Options Increase page size E.g., doubling page size cuts PT size in half At the expense of potentially wasted memory Hierarchical page tables With decreasing page size Most programs use only fraction of memory Split PT in two (or more) parts

107 Hierarchical Page Table Exploits Sparsity of Virtual Address Space Use Physical Memory Virtual Address p12 1 p2 2 1offset 0 10-bit L1 index 10-bit L2 index Root of the Current Page Table p1 p2 (Processor Register) Level 1 Page Table Page size 10b 1024 x 4096B page in primary memory page in secondary memory Level 2 Page Tables 12b 4096B PTE of a nonexistent page

108 页替换算法 就像 Cache 块替换算法一样! 最近最少使用 : 选择出最近最少使用的页面来替换 需要有关过去访问页面的信息, 非常难以实现 ( 将页表项根据从最近最多访问到最近最少访问的次序排序 ; 当一个页面被访问时, 将它移动到列表的头部 ; 于在列表尾部的页表项就是将被替换出的页表项 ) 性能很好, 遵从了局部性原则

109 页面替换 ( 续 ) 非最近使用 : 与每个页面相关联的是一个访问标志 : 访问标志 (reference flag) = 1 如果该页在最近的过去被访问过 = 0 否则 如果需要替换, 选择任意一个访问标志为 0 的页帧替换掉 该页是在最近的过去没有被访问过的页 非最近使用 (NRU) 替换策略的实现 : 页表表项 访问位 页表表项 最近替换指针 (lrp) 如果需要进行替换, 将 lrp 前移到下一个页表项 ( 与表的大小取模 ) 直到发现一个具有 0 位的页表项 ; 这就是要替换的目标 ; 在上述工作的同时, 将所有检查过的页表项的访问位置为 0 一种优化的策略是查找最近既没有被访问, 又 不脏 的页

110 按需调页和预取页面 访取策略 (Fetch Policy) 何时将该页换入存储器? 如果只有在缺页时才将页面调入, 那么这种策略就称为 按需调页 (demand paging) 另外一种选择方案是预取 (prefetching): 预测未来的访问, 在实际使用这些页面之前, 预先装入 + 减少了页面传输的开销 - 将移出已经在页帧中的页, 从而不利于缺页率 - 预测未来访问通常很困难 绝大多数系统只实现了按需调页, 而没有实现预测

111 虚拟地址和 Cache CPU VA PA miss Translation Cache hit Main Memory data 需要一次额外的存储访问来将虚拟地址变换成物理地址 这使得 cache 访问的代价非常高, 而且这也是我们希望尽可能快得执行的 最内层循环 思考 : 为什么总是用物理地址来访问 cache? 虚拟地址 cache 有一个很难对付的问题! 同义问题 (synonym problem): 两个不同的虚拟地址可以映射到同一物理地址 => 两个不同的 cache 表项包含对同一物理地址的数据! 对于更新 : 必须更新所有具有同一物理地址的 cache 表项或者允许存储器不一致 确定上述情况需要大量的硬件, 特别是需要对物理地址标签进行相联查找以确定是否出现多次命中

112 Translation Lookaside Buffers (TLB) Address translation is very expensive! In a two-level page table, each reference becomes three memory accesses Solution: Cache some translations in TLB TLB hit TLB miss Single-Cycle Translation Page-Table Walk to refill virtual address VPN offset V D tag PPN (VPN = virtual page number) (PPN = physical page number) hit? physical address PPN offset

113 快表 (TLB) 加速地址变换的一种方式是使用一种关于最近使用页表表项的特殊 cache 它有很多名字, 但最经常使用的名字是变换旁视缓冲器 (Translation Lookaside Buffer:TLB) 或快表! 虚拟地址物理地址脏位访问有效位访问方式 TLB 访问时间与 Cache 访问时间是可比的 ( 但要小一些 ) ( 也比主存访问时间要小得多 )

114 变换旁视缓冲器 就像其他的 cache, TLB 可以是全相联的 组相联的, 也可以是直接映射的 TLB 一般较小, 通常即使在高性能机器中也只有 个表项 这样就可以实现全相联查找 大多数中等性能的机器使用 n 路组相联的组成 使用 TLB 的地址变换 CPU hit VA PA miss TLB Cache Lookup miss Translation hit Main Memory 1/2 t data t 20 t

115 VM-related Events in Pipeline PC Ins t TLB Inst. Cache D Decode E + M Data TLB Data Cache W TLB miss? Page Fault? Protection violation? TLB miss? Page Fault? Protection violation? Handling a TLB miss needs a hardware or software mechanism to refill TLB Usually done in hardware Handling a page fault (e.g., page is on disk) needs a precise trap so software handler can easily resume after retrieving page Protection violation may abort process

116 Page-Based Virtual-Memory Machine (Hardware Page-Table Walk) Page Fault? Protection violation? Virtual Address PC Inst. TLB Physical Address Inst. Cache D Decode E + M Page Fault? Protection violation? Virtual Address Data TLB Physical Address Data Cache W Miss? Page-Table Base Register Miss? Hardware Page Table Walker Physical Address Memory Controller Main Memory (DRAM) Physical Address Physical Address Assumes page tables held in untranslated physical memory

117 Address Translation: putting it all together Virtual Address TLB Lookup hardware hardware or software software miss hit Page Table Walk Protection Check the page is memory memory denied permitted Page Fault (OS loads page) Update TLB Protection Fault Physical Address (to cache) Where? SEGFAULT

118 Modern Virtual Memory Systems Illusion of a large, private, uniform store Protection & Privacy Several users/processes, each with their private address space Demand Paging Provides the ability to run programs larger than the primary memory OS user i Swapping Space (Disk) Primary Memory Hides differences in machine configurations The price is address translation on each memory reference VA mapping PA

119 减少变换时间 具有 TLB 的机器可以进一步降低时钟周期数 / Cache 访问 可以将 Cache 访问与 TLB 访问重叠 由于使用虚拟地址中的高位来查找 TLB, 而用低位来作为访问 Cache 的索引, 因而上述策略可以工作

120 Cache 和 TLB 访问重叠 32 TLB 相联查找 index Cache 1 K bytes 00 PA Hit/ Miss page # disp PA Data Hit/ Miss IF cache 命中 AND (cache 标签 = 物理地址 ) THEN 将数据提交给 CPU ELSE IF [cache 失效 OR (cache 标签 = 物理地址 )] AND TLB 命中 THEN 用 TLB 中的物理地址来访问存储器 ELSE 做正常的虚拟地址变换 =

121 重叠 TLB 访问的问题 重叠的访问只能当用于对 cache 进行索引的地址位不会作为虚拟地址变换的结果而改变时, 才能正常工作 这通常只适用于小 cache 和大页面大小或者高 n 路组相联的大 cache 例如 : 假设 cache 的容量从 4K 增长到 8K, 而其他都不变 11 2 cache 索引 虚拟页号 偏移量 解决方案 : 变成 8K 字节的页面大小变成 2 路祖相联 cache ( 仍然使用 10 位索引 ) 这一位被虚拟地址变换所改变, 但是 cache 查找时也需要 1K 10 2 路组相联 cache 4 4

122 再论选择页面大小 增大页面大小的原因 页表大小与页大小成反比 ; 因而可以节省存储器 当 cache 容量 = 页面大小时, 易于加快 cache 命中时间 ; 较大的页面使得单页 cache 是可行的 在二级存储与存储器之间传输较大的页 ( 或者在网络上传输 ) 是比较有效的 TLB 中表项的数量受到时钟周期时间的限制, 因此较大的页可以映射更多的存储空间, 从而减少 TLB 的失效 减小页面大小的原因 不浪费存储 ; 页内的数据地址必须是连续的 对较小的进程可以加快进程的启动? 混合方案 : 多页面大小 Alpha: 8KB 64KB 512 KB 和 4 MB 大小的页面

123 分段 ( 参见 x86) 相对于分页 ( 通常与分页结合使用 ) 每个程序模块分配一段 ; 可能具有不同的大小 ; 段是物理存储器和磁盘之间传输的基本单位 段号 偏移量 Present 访问方式段长物理始地址 BR 段表 物理地址 + 出现位 故障 : 段失效 (Present = 0) 溢出 (Displacement 超出了段长 ) 保护违例 ( 访问与段保护不相符 ) 基于段的寻址通常用于实现存储器的能力 (capabilities), 例如, 硬件支持复杂的保护机制

124 缺点 : 基于段的寻址方式 (1) 对可变大小的块进行存储分配 (2) 外部碎片 : 这种物理存储器分配可能导致所有可用的空间片都不足以再分配给任何一段 在运行时解决这一问题非常费时 段式和页式结合 : 段页式策略 虚拟地址 段号页号偏移量 IBM 中使用 : 4K 字节页面 16 x 1 M 字节或 64 x 64 K 字节段

125 虚拟存储器的历史 自从发明虚拟存储器至今, DRAM 已经增大了 64,000 倍 今天, 系统缺页率已经非常低 那么, 是否可以放弃虚拟存储呢?

126 Typical Performance Stats secondary memory CPU cache primary memory CPU primary memory Caching Demand paging cache entry page frame cache block ( 32 bytes) page ( 4Ki bytes) cache miss rate (1% to 20%) page miss rate (<0.001%) cache hit ( 1 cycle) page hit ( 100 cycles) cache miss ( 100 cycles) page miss ( 5M cycles) 126

127 Impact of Paging on AMAT (1/2) Memory Parameters: L1 cache hit = 1 clock cycles, hit 95% of accesses L2 cache hit = 10 clock cycles, hit 60% of L1 misses DRAM = 200 clock cycles ( 100 nanoseconds) Disk = 20,000,000 clock cycles ( 10 milliseconds) Average Memory Access Time (no paging): 1 + 5% % 40% 200 = 5.5 clock cycles Average Memory Access Time (with paging): 5.5 (AMAT with no paging) +? 127

128 Impact of Paging on AMAT (2/2) Average Memory Access Time (with paging) = % 40% (1-HR Mem ) 20,000,000 AMAT if HR Mem = 99%? ,000,000 = ( 728x slower) 1 in 20,000 memory accesses goes to disk: 10 sec program takes 2 hours! AMAT if HR Mem = 99.9%? ,000,000 = AMAT if HR Mem = % ,000,000 =

129 Impact of TLBs on Performance Each TLB miss to Page Table ~ L1 Cache miss TLB Reach: Amount of virtual address space that can be simultaneously mapped by TLB: TLB typically has 128 entries of page size 4-8 KiB KiB = 512 KiB = just 0.5 MiB What can you do to have better performance? Multi-level TLBs Variable page size (segments) Special situationally-used superpages Conceptually same as multi-level caches 129

130 Aside: Context Switching How does a single processor run many programs at once? Context switch: Changing of internal state of processor (switching between processes) Save register values (and PC) and change value in Page Table Base register What happens to the TLB? Current entries are for different process Set all entries to invalid on context switch 130

131 Virtual Memory Summary User program view: Contiguous memory Start from some set VA Infinitely large Is the only running program Reality: Non-contiguous memory Start wherever available memory is Finite size Many programs running simultaneously Virtual memory provides: Illusion of contiguous memory All programs starting at same set address Illusion of ~ infinite memory (2 32 or 2 64 bytes) Protection Implementation:, Sharing Divide memory into chunks (pages) OS controls page table that maps virtual into physical addresses memory as a cache for disk TLB is a cache for the page table 131

132 结论一 虚拟存储是作为存储层次的另外一层发明的 当时的争论是 : 软件是否可以自动在许多程序之间管理 64KB 存储器? DRAM 容量的迅猛增长消除了这一争论 今天, 虚拟存储器可以使得多个进程共享同一存储, 而无需将所有进程交换到磁盘, 这时保护就非常重要 ( 多级 ) 页表将虚地址映射到物理地址 TLB 对于快速变换非常重要 TLB 失效对性能影响很大

133 结论二 算法理论和编译基于操作的数目 编译将消除一些操作, 并简化一些操作 : 整数加法 << 整数乘法 << 浮点加法 << 浮点乘法 高级流水线 => 这些操作将需要相同的时间 随着时钟频率增高和流水线加深, 指令将需要越来越少的时间, 但是 DRAM 的速度提高却低得多 今天, 执行时间是 ( 操作数,cache 失效 ) 的函数 考虑到 cache 的重要性, 这对下面主题意味着什么 : 编译器? 数据结构? 算法?

134 Uniprocessor Performance From Hennessy and Patterson, Computer Architecture: A Quantitative Approach, 5th edition, 2011

135 共享地址空间模型 机器的物理地址空间 进程组的虚拟地址空间的通信通过共享地址完成 Load P n P n 私用 公共物理空间 Store P 0 P 1 P 2 地址空间共享部分 P 2 私用 地址空间私用部分 P 1 P 0 私用 私用

136 示例 : 小规多处理器设计 存储器 : 具有相同访问时间 (uniform access time :UMA) 和总线互联 I/O 处理器 处理器 处理器 处理器 一级或多级 一级或多级 一级或多级 一级或多级 Cache Cache Cache Cache 主存 I/O 系统

137 Symmetric Multiprocessors Processor Processor Memory symmetric All memory is equally far away from all processors Any processor can do any I/O (set up a DMA transfer) CPU-Memory bus I/O controller bridge I/O bus I/O controller Graphics output I/O controller Networks 137

138 Cache 一致性 (coherence) 问题 时间 事件 CPU A 的 Cache 内容 CPU B 的 Cache 内容 位置 X 的存储器内容 A 读 X B 读 X A 将 0 存入 X 0 1 0

139 一致性的含义如何? 非正式 : 任何读操作都必须返回最近写的内容 太严格, 也太难实现 内存严格一致性 (Strict Consistency) 2 different aspects of memory system behavior Coherence: defines what values can be returned by a read Consistency:determines when a written value will be returned by a read

140 存储系统如何具有一致性 ( Coherent)? 写序列化 (write serialization) : 任何写操作的结果最终都会被任何一次读操作看见 所有的写操作都被所有处理器以正确的次序看见 A memory system is coherent if : 如果 P 写 x 后,P 读 x, 并其间没有其他对 x 的写操作, 那么 P 读的都是 P 的写结果 如果 P 写 x 后,P1 读 x, 且读和写之间足够远并其间没有其他对 x 的写操作, 那么 P 的写结果将被 P1 看见 对单一位置的写操作是序列化的 : 以一确定次序可见 - 将看见最后的写 - 否则将以不合逻辑的次序看见多次写 ( 在较新的数值写后, 还看见较旧的数值 )

141 可能的硬件一致性解决方案 Snooping Solution (Snoopy Bus): Send all requests for data to all processors Processors snoop to see if they have a copy and respond accordingly Requires broadcast, since caching information is at processors Works well with bus (natural broadcast medium) Dominates for small scale machines (most of the market) Directory-Based Schemes Keep track of what is being shared in one centralized place Distributed memory => distributed directory for scalability (avoids bottlenecks) Send point-to-point requests to processors via network Scales better than Snooping Actually existed BEFORE Snooping-based schemes

142 Warmup: Parallel I/O Proc. Address (A) Data (D) Cache Memory Bus Physical Memory R/W Either Cache or DMA can be the Bus Master and effect transfers A D R/W Page transfers occur while the Processor is running DMA DISK (DMA stands for Direct Memory Access, means the I/O device can read/write memory autonomous from the CPU) 142

143 Problems with Parallel I/O Proc. Cached portions of page Memory Bus Cache DMA Physical Memory DMA transfers Memory Disk: Physical memory may be stale if cache copy is dirty DISK Disk Memory: Cache may hold stale data and not see memory writes 143

144 Snoopy Cache, Goodman 1983 Idea: Have cache watch (or snoop upon) DMA transfers, and then do the right thing Snoopy cache tags are dual-ported Used to drive Memory Bus when Cache is Bus Master Proc. A R/W D Tags and State Data (lines) A R/W Snoopy read port attached to Memory Bus Cache 144

145 Snoopy Cache Actions for DMA Observed Bus Cycle Cache State Cache Action Address not cached DMA Read Cached, unmodified Memory Disk Cached, modified Address not cached DMA Write Cached, unmodified Disk Memory Cached, modified No action No action Cache intervenes No action Cache purges its copy??? 145

146 基本窥探的协议 Write Invalidate Protocol: Multiple readers, single writer Write to shared data: an invalidate is sent to all caches which snoop and invalidate any copies Read Miss: - Write-through: memory is always up-to-date - Write-back: snoop in caches to find most recent copy Write Broadcast Protocol (typically write through): Write to shared data: broadcast on bus, processors snoop, and update any copies Read miss: memory is always up-to-date Write serialization: bus serializes requests! Bus is single point of arbitration

147 窥探协议的一个例子 Invalidation protocol, write-back cache Each block of memory is in one state: Clean in all caches and up-to-date in memory (Shared) OR Dirty in exactly one cache (Exclusive) OR Not in any caches Each cache block is in one state (track these): Shared : block can be read OR Exclusive : cache has only copy, its writeable, and dirty OR Invalid : block contains no data Read misses: cause all caches to snoop bus Writes to clean line are treated as misses

148 Snoopy-Cache 状态机 -I State machine for CPU requests for each cache block Invalid CPU Write Place Write Miss on bus CPU Read Place read miss on bus CPU read miss Write-back block Write back block CPU Read hit Shared (read/only) CPU Read miss Place read miss on bus Cache Block State CPU read hit CPU write hit Exclusive (read/write) CPU Write Place Write Miss on Bus CPU Write Miss Write back cache block Place write miss on bus

149 Snoopy-Cache 状态机 -II State machine for bus requests Write miss for each for this block cache block Invalid Shared (read/only) Write miss for this block Exclusive (read/write) Write Back Block; (abort memory access) Read miss for this block Write Back Block; (abort memory access) CPU Read miss

150 窥探 Cache: 状态机 CPU Read hit Remote Write or Miss due to address conflict Write back block Invalid CPU Write Place Write Miss on bus Remote Read Write back block Remote Write or Miss due to address conflict CPU Read Place read miss on bus CPU Read Miss CPU Write Place Write Miss on Bus Shared (read/only) CPU Read miss Place rd miss on bus CPU read hit CPU write hit Exclusive (read/write) CPU Write Miss Write back cache block Place write miss on bus

151 示例 P1 P2 Bus Memory step State Addr Value State Addr Value Action Proc. Addr Value Addr Value P1: Write 10 to A1 P1: P1: Read A1 P2: Read A1 P2: Write 20 to A1 A1 P2: Write 40 to A2 A2 Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2 Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

152 示例 ( 续一 ) P1 P2 Bus Memory step State Addr Value State Addr Value Action Proc. Addr Value Addr Value P1: Write 10 to A1 Excl. A1 10 WrMs P1 A1 P1: Read A1 P2: Read A1 P2: Write 20 to A1 P2: Write 40 to A2 Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2. Active arrow = Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

153 示例 ( 续二 ) P1 P2 Bus Memory step State Addr Value State Addr Value Action Proc. Addr Value Addr Value P1: Write 10 to A1 Excl. A1 10 WrMs P1 A1 P1: Read A1 Excl. A1 10 P2: Read A1 P2: Write 20 to A1 P2: Write 40 to A2 Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2 Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

154 示例 ( 续三 ) P1 P2 Bus Memory step State Addr Value State Addr Value Action Proc. Addr Value Addr Value P1: Write 10 to A1 Excl. A1 10 WrMs P1 A1 P1: Read A1 Excl. A1 10 P2: Read A1 Shar. A1 RdMs P2 A1 Shar. A1 10 WrBk P1 A Shar. A1 10 RdDa P2 A P2: Write 20 to A1 10 P2: Write 40 to A Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2. Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

155 示例 ( 续四 ) P1 P2 Bus Memory step State Addr Value State Addr ValueActionProc. Addr ValueAddrValue P1: Write 10 to A1 Excl. A1 10 WrMs P1 A1 P1: P1: Read A1 A1 Excl. A1 10 P2: Read A1 Shar. A1 RdMs P2 A1 Shar. A1 10 WrBk P1 A Shar. A1 10 RdDa P2 A P2: Write 20 to A1 Inv. Excl. A1 20 WrMs P2 A1 10 P2: Write 40 to A Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2 Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

156 示例 ( 续五 ) P1 P2 Bus Memory step State Addr Value State Addr Value Action Proc. Addr Value Addr Value P1: Write 10 to A1 Excl. A1 10 WrMs P1 A1 P1: Read A1 Excl. A1 10 P2: Read A1 Shar. A1 RdMs P2 A1 Shar. A1 10 WrBk P1 A Shar. A1 10 RdDa P2 A P2: Write 20 to A1 Inv. Excl. A1 20 WrMs P2 A1 10 P2: Write 40 to A2 WrMs P2 A2 10 Excl. A2 40 WrBk P2 A Assumes initial cache state is invalid and A1 and A2 map to same cache block, but A1 A2 Remote Write or Miss Write Back Invalid Remote Write or Miss Read miss on bus Write miss on bus Remote Read Write Back Shared CPU Write Place Write Miss on Bus CPU Read hit CPU read hit CPU write hit Exclusive

157 实现复杂 Write Races: Cannot update cache until bus is obtained - Otherwise, another processor may get bus first, and then write the same cache block! Two step process: - Arbitrate for bus - Place miss on bus and complete operation If miss occurs to block while waiting for bus, handle miss (invalidate may be needed) and then restart. Split transaction bus: - Bus transaction is not atomic: can have multiple outstanding transactions for a block - Multiple misses can interleave, allowing two caches to grab block in the Exclusive state - Must track and prevent multiple misses for one block Must support interventions and invalidations

158 Snoopy Cache Coherence Protocols write miss: the address is invalidated in all other caches before the write is performed read miss: if a dirty copy is found in some cache, a write-back is performed before the memory is read

159 Cache State Transition Diagram The MSI protocol Each cache line has state bits state bits Address tag Write miss (P1 gets line from memory) Other processor reads (P 1 writes back) M: Modified S: Shared I: Invalid M P 1 reads or writes Read miss (P1 gets line from memory) Read by any processor S Other processor intent to write I Other processor intent to write (P 1 writes back) Cache state in processor P 1

160 Two Processor Example (Reading and writing the same cache line) P 1 reads P 1 writes P 2 reads P 2 writes P 1 reads P 1 writes P 2 writes P 1 writes P 1 Read miss P 2 reads, P 1 writes back S P 2 intent to write M I P 1 reads or writes Write miss P 2 intent to write P 2 P 1 reads, P 2 writes back M P 2 reads or writes Write miss Read miss S P 1 intent to write I P 1 intent to write

161 存储器一致性模型 Schemes faster execution to sequential consistency Not really an issue for most programs; they are synchronized A program is synchronized if all access to shared data are ordered by synchronization operations write (x)... release (s) {unlock}... acquire (s) {lock}... read(x) Only those programs willing to be nondeterministic are not synchronized: data race : outcome f(proc. speed) Several Relaxed Models for Memory Consistency since most programs are synchronized; characterized by their attitude towards: RAR, WAR, RAW, WAW to different addresses

162 Synchronization The need for synchronization arises whenever there are concurrent processes in a system (even in a uniprocessor system) Two classes of synchronization: Producer-Consumer: A consumer process must wait until the producer process has produced data Mutual Exclusion: Ensure that only one process uses a resource at a given time producer P1 consumer P2 Shared Resource

163 Sequential Consistency A Memory Model P P P P P P A system is sequentially consistent if the result of any execution is the same as if the operations of all the processors were executed in some sequential order, and the operations of each individual processor appear in the order specified by the program Leslie Lamport Sequential Consistency = arbitrary order-preserving interleaving of memory references of sequential programs First defined by [Lamport 1979], execution is the same as if: (R1) Memory ops of each processor appear in program order (R2) Memory ops of all processors were executed in some global sequential order M

164 Programmer s view of sequential consistency Informally, sequential consistency requires that all memory operations appear to execute one at a time, and the operations of a single processor appear to execute in the order described by that processor s program.

165 Memory Consistency Models -Who Should Care? As the interface between the programmer and the system, memory consistency affects: Programmability because programmers must use it to reason about the correctness of their programs. Performance of the system because it determines the types of optimizations that may be exploited by the hardware and the system software. Finally, Portability can be affected when moving software across systems supporting different models, due to a lack of consensus on a single model MCM influences the writing of parallel programs from the programmer s perspective, and virtually all aspects of designing a parallel system (including the processor, memory system, interconnection network, compiler, and programming languages) from a system designer s perspective

166 Sequential Consistency Sequential concurrent tasks: T1, T2 Shared variables: X, Y (initially X = 0, Y = 10) T1: T2: Store (X), 1 (X = 1) Load R 1, (Y) Store (Y), 11 (Y = 11) Store (Y ), R 1 (Y = Y) Load R 2, (X) Store (X ), R 2 (X = X) what are the legitimate answers for X and Y? (X,Y ) {(1,11), (0,10), (1,10), (0,11)}? If y is 11 then x cannot be 0

167 Sequential Consistency Sequential consistency imposes more memory ordering constraints than those imposed by uniprocessor program dependencies ( ) What are these in our example? T1: T2: Store (X), 1 (X = 1) Load R 1, (Y) Store (Y), 11 (Y = 11) Store (Y ), R 1 (Y = Y) Load R 2, (X) additional SC requirements Store (X ), R 2 (X = X) Does (can) a system with caches or out-of-order execution capability provide a sequentially consistent view of the memory? more on this later

168 Issues in Implementing Sequential Consistency P P P P P P M Implementation of SC is complicated by two issues Out-of-order execution capability Load(a); Load(b) yes Load(a); Store(b) yes if a b Store(a); Load(b) yes if a b Store(a); Store(b) yes if a b Caches Caches can prevent the effect of a store from being seen by other processors No common commercial architecture has a sequentially consistent memory model!

169 Relaxed Consistency Models Relaxed consistency models allow reads and writes to complete out of order, but to use synchronization operations to enforce ordering, so that a synchronized program behaves as if the processor were sequentially consistent. ~ H&P Fifth Edition

170 Virtual Machine Protection via Virtual machine The increasing importance of isolation and security in modern systems The failures in security and reliability of standard operation systems The sharing of a single computer among many unrelated users The dramatic increases in raw speed of processors, which makes the overhead of VMs more acceptable

171 Virtual Machine Virtualization of Whole Machine A complete system-level environment at binary ISA level (Operating) System Virtual Machine Run different ISAs in the VM from native hardware

172 System Virtual Machine

173 Virtual machine 分类

174 System Virtual Machine CPU Virtualization Memory Virtualization I/O virtualization

175

176 Virtual Machine Monitor Virtual machine monitor(vmm) or Hypervisor Managing software Managing hardware Requirements Guest software should behave on a VM exactly as if it were running on the native hardware, except for performance-related behavior or limitations of fixed resources shared by multiple VMs. Guest software should not be able to change allocation of real system At least two processor modes, system and user. A privileged subset of instructions that is available only in system mode, resulting in a trap if executed in user mode. All system resources must be controllable only via these instructions.

177

178 Cloud Computing

Training

Training 计算机组织与系统结构 虚拟存储器 Virtual Memory ( 第十九讲 ) 程旭 2012.12.24 容量访问时间成本 CPU 寄存器 100s Bytes

More information

P4i45GL_GV-R50-CN.p65

P4i45GL_GV-R50-CN.p65 1 Main Advanced Security Power Boot Exit System Date System Time Floppy Drives IDE Devices BIOS Version Processor Type Processor Speed Cache Size Microcode Update Total Memory DDR1 DDR2 Dec 18 2003 Thu

More information

Training

Training 高等计算机系统结构主存 Main Memory ( 第八讲 ) 程旭 2014.5.5 微处理器 - 主存 (DRAM) 的延迟差距 Performance (1/latency) Gap grew 50% per year How do architects address this gap? Put small, fast cache memories between CPU and DRAM.

More information

1 CPU

1 CPU 2000 Tel 82316285 82317634 Mail [email protected] 1 CPU 2 CPU 7 72 A B 85 15 3 1/2 M301 2~17 : 3/4 1/2 323 IBM PC 1. 2. 3. 1. 2. 3. 1.1 Hardware Software 1.2 M3 M2 M1 1.2 M3 M1 M2 M2 M1 M1 M1 1.2 M3 M1

More information

Microsoft PowerPoint - CA_03 Chapter5 Part-II_multi _V1.ppt

Microsoft PowerPoint - CA_03 Chapter5 Part-II_multi _V1.ppt Chapter5-2 The Processor: Datapath and Control (Multi-cycle implementation) 臺大電機系 吳安宇教授 V1. 03/27/2007 For 2007 DSD Course 臺大電機吳安宇教授 - 計算機結構 1 Outline 5.1 Introduction 5.2 Logic Design Conventions 5.3

More information

穨control.PDF

穨control.PDF TCP congestion control yhmiu Outline Congestion control algorithms Purpose of RFC2581 Purpose of RFC2582 TCP SS-DR 1998 TCP Extensions RFC1072 1988 SACK RFC2018 1996 FACK 1996 Rate-Halving 1997 OldTahoe

More information

Microsoft PowerPoint - STU_EC_Ch08.ppt

Microsoft PowerPoint - STU_EC_Ch08.ppt 樹德科技大學資訊工程系 Chapter 8: Counters Shi-Huang Chen Fall 2010 1 Outline Asynchronous Counter Operation Synchronous Counter Operation Up/Down Synchronous Counters Design of Synchronous Counters Cascaded Counters

More information

BC04 Module_antenna__ doc

BC04 Module_antenna__ doc http://www.infobluetooth.com TEL:+86-23-68798999 Fax: +86-23-68889515 Page 1 of 10 http://www.infobluetooth.com TEL:+86-23-68798999 Fax: +86-23-68889515 Page 2 of 10 http://www.infobluetooth.com TEL:+86-23-68798999

More information

<4D6963726F736F667420576F7264202D2032303130C4EAC0EDB9A4C0E04142BCB6D4C4B6C1C5D0B6CFC0FDCCE2BEABD1A15F325F2E646F63>

<4D6963726F736F667420576F7264202D2032303130C4EAC0EDB9A4C0E04142BCB6D4C4B6C1C5D0B6CFC0FDCCE2BEABD1A15F325F2E646F63> 2010 年 理 工 类 AB 级 阅 读 判 断 例 题 精 选 (2) Computer mouse How does the mouse work? We have to start at the bottom, so think upside down for now. It all starts with mouse ball. As the mouse ball in the bottom

More information

Oracle 4

Oracle 4 Oracle 4 01 04 Oracle 07 Oracle Oracle Instance Oracle Instance Oracle Instance Oracle Database Oracle Database Instance Parameter File Pfile Instance Instance Instance Instance Oracle Instance System

More information

P4VM800_BIOS_CN.p65

P4VM800_BIOS_CN.p65 1 Main H/W Monitor Boot Security Exit System Overview System Time System Date [ 17:00:09] [Fri 02/25/2005] BIOS Version : P4VM800 BIOS P1.00 Processor Type : Intel (R) Pentium (R) 4 CPU 2.40 GHz Processor

More information

VASP应用运行优化

VASP应用运行优化 1 VASP [email protected] April 8, 2018 Contents 1 2 2 2 3 2 4 2 4.1........................................................ 2 4.2..................................................... 3 5 4 5.1..........................................................

More information

Windows XP

Windows XP Windows XP What is Windows XP Windows is an Operating System An Operating System is the program that controls the hardware of your computer, and gives you an interface that allows you and other programs

More information

Training

Training 高 等 计 算 机 系 统 结 构 主 存 与 存 储 管 理 系 统 Main Memory & Memory Management ( 第 六 讲 ) 程 旭 2013.4.15 微 处 理 器 - 主 存 (DRAM) 的 延 迟 差 距 Performance (1/latency) Gap grew 50% per year How do architects address this gap?

More information

投影片 1

投影片 1 2 理 1 2-1 CPU 2-2 CPU 理 2-3 CPU 類 2 什 CPU CPU Central Processing Unit ( 理 ), 理 (Processor), CPU 料 ( 例 ) 邏 ( 例 ),, 若 了 CPU, 3 什 CPU CPU 了, 行, 利 CPU 力 來 行 4 什 CPU 5 2-2-1 CPU CPU 了 (CU, Control Unit) / 邏

More information

热设计网

热设计网 例 例 Agenda Popular Simulation software in PC industry * CFD software -- Flotherm * Advantage of Flotherm Flotherm apply to Cooler design * How to build up the model * Optimal parameter in cooler design

More information

P4Dual-915GL_BIOS_CN.p65

P4Dual-915GL_BIOS_CN.p65 1 Main H/W Monitor Boot Security Exit System Overview System Time System Date Total Memory DIMM 1 DIMM 2 [ 14:00:09] [Wed 01/05/2005] BIOS Version : P4Dual-915GL BIOS P1.00 Processor Type : Intel (R) Pentium

More information

WTO

WTO 10384 200015128 UDC Exploration on Design of CIB s Human Resources System in the New Stage (MBA) 2004 2004 2 3 2004 3 2 0 0 4 2 WTO Abstract Abstract With the rapid development of the high and new technique

More information

P4V88+_BIOS_CN.p65

P4V88+_BIOS_CN.p65 1 Main H/W Monitor Boot Security Exit System Overview System Time System Date [ 17:00:09] [Wed 12/22/2004] BIOS Version : P4V88+ BIOS P1.00 Processor Type : Intel (R) Pentium (R) 4 CPU 2.40 GHz Processor

More information

<4D6963726F736F667420506F776572506F696E74202D20C8EDBCFEBCDCB9B9CAA6D1D0D0DEBDB2D7F92E707074>

<4D6963726F736F667420506F776572506F696E74202D20C8EDBCFEBCDCB9B9CAA6D1D0D0DEBDB2D7F92E707074> 软 件 架 构 师 研 修 讲 座 胡 协 刚 软 件 架 构 师 UML/RUP 专 家 [email protected] 中 国 软 件 架 构 师 网 东 软 培 训 中 心 小 故 事 : 七 人 分 粥 当 前 软 件 团 队 的 开 发 现 状 和 面 临 的 问 题 软 件 项 目 的 特 点 解 决 之 道 : 从 瀑 布 模 型 到 迭 代 模 型 解 决 项

More information

Training

Training 高等计算机系统结构 主存与存储管理系统 Main Memory & Memory Management ( 第六讲 ) 程旭 2004.04.19 复习 : 存储系统的扩展图示 处理器 控制 Memory 数据通路 Memory Memory Memory Memory 速度 : 最快 最慢 容量 : 最小 最大 每位成本 : 最高 最低 复习 : 局部性原理 局部性原理 : CPU 访问存储器时,

More information

國立中山大學學位論文典藏.PDF

國立中山大學學位論文典藏.PDF 國 立 中 山 大 學 企 業 管 理 學 系 碩 士 論 文 以 系 統 動 力 學 建 構 美 食 餐 廳 異 國 麵 坊 之 管 理 飛 行 模 擬 器 研 究 生 : 簡 蓮 因 撰 指 導 教 授 : 楊 碩 英 博 士 中 華 民 國 九 十 七 年 七 月 致 謝 詞 寫 作 論 文 的 過 程 是 一 段 充 滿 艱 辛 與 淚 水 感 動 與 窩 心 的 歷 程, 感 謝 這 一

More information

2 2 3 DLight CPU I/O DLight Oracle Solaris (DTrace) C/C++ Solaris DLight DTrace DLight DLight DLight C C++ Fortran CPU I/O DLight AM

2 2 3 DLight CPU I/O DLight Oracle Solaris (DTrace) C/C++ Solaris DLight DTrace DLight DLight DLight C C++ Fortran CPU I/O DLight AM Oracle Solaris Studio 12.2 DLight 2010 9 2 2 3 DLight 3 3 6 13 CPU 16 18 21 I/O DLight Oracle Solaris (DTrace) C/C++ Solaris DLight DTrace DLight DLight DLight C C++ Fortran CPU I/O DLight AMP Apache MySQL

More information

Microsoft PowerPoint - Aqua-Sim.pptx

Microsoft PowerPoint - Aqua-Sim.pptx Peng Xie, Zhong Zhou, Zheng Peng, Hai Yan, Tiansi Hu, Jun-Hong Cui, Zhijie Shi, Yunsi Fei, Shengli Zhou Underwater Sensor Network Lab 1 Outline Motivations System Overview Aqua-Sim Components Experimental

More information

<4D F736F F D20B5DAC8FDCBC4D5C2D7F7D2B5B4F0B0B82E646F63>

<4D F736F F D20B5DAC8FDCBC4D5C2D7F7D2B5B4F0B0B82E646F63> 第三章 Q3 1 1. 省略了 I/O 操作的复杂逻辑, 易实现, 耗费低 ; 2. 可以利用丰富的内存寻址模式实现灵活的 I/O 操作 Q3 2 假设存储单元 ds1 处寄存器地址为 0x2000, 代码如下 #define ds1 0x2000 while ( *ds1 == 0 ) ; Q3 3 假设设备 (dev1) 中有两个寄存器 ds1 和 dd1,dev1 的地址为 0x1000,ds1

More information

[group6] 4. The data cache has 80% hit rate and miss penalty is 120 cycles. 30% of instructions are load and store. The instruction cache has a hit ra

[group6] 4. The data cache has 80% hit rate and miss penalty is 120 cycles. 30% of instructions are load and store. The instruction cache has a hit ra Computer Architecture Fall, 2017 Week 15 2017.12.18 [group2] 1. 請說明如何改善 cache performance, 並舉例說明之 Reduce the time to hit in the cache Decreasing the miss ratio( 可利用 associative cashes 來取代 direct mapped

More information

2005 5,,,,,,,,,,,,,,,,, , , 2174, 7014 %, % 4, 1961, ,30, 30,, 4,1976,627,,,,, 3 (1993,12 ),, 2

2005 5,,,,,,,,,,,,,,,,, , , 2174, 7014 %, % 4, 1961, ,30, 30,, 4,1976,627,,,,, 3 (1993,12 ),, 2 3,,,,,, 1872,,,, 3 2004 ( 04BZS030),, 1 2005 5,,,,,,,,,,,,,,,,, 1928 716,1935 6 2682 1928 2 1935 6 1966, 2174, 7014 %, 94137 % 4, 1961, 59 1929,30, 30,, 4,1976,627,,,,, 3 (1993,12 ),, 2 , :,,,, :,,,,,,

More information

AN INTRODUCTION TO PHYSICAL COMPUTING USING ARDUINO, GRASSHOPPER, AND FIREFLY (CHINESE EDITION ) INTERACTIVE PROTOTYPING

AN INTRODUCTION TO PHYSICAL COMPUTING USING ARDUINO, GRASSHOPPER, AND FIREFLY (CHINESE EDITION ) INTERACTIVE PROTOTYPING AN INTRODUCTION TO PHYSICAL COMPUTING USING ARDUINO, GRASSHOPPER, AND FIREFLY (CHINESE EDITION ) INTERACTIVE PROTOTYPING 前言 - Andrew Payne 目录 1 2 Firefly Basics 3 COMPONENT TOOLBOX 目录 4 RESOURCES 致谢

More information

IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I

IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I 2004 5 IP TCP/IP PC OS µclinux MPEG4 Blackfin DSP MPEG4 IP UDP Winsock I/O DirectShow Filter DirectShow MPEG4 µclinux TCP/IP IP COM, DirectShow I Abstract The techniques of digital video processing, transferring

More information

國立中山大學學位論文典藏.PDF

國立中山大學學位論文典藏.PDF The Study on the New Pension Scheme for Civil Servants Evidence from Kaohsiung County I II 1. III Thesis Abstract Title of Thesis The Study on the New Pension Scheme for Civil Servants: Evidence from Kaohsiung

More information

untitled

untitled LBS Research and Application of Location Information Management Technology in LBS TP319 10290 UDC LBS Research and Application of Location Information Management Technology in LBS , LBS PDA LBS

More information

6-7 6-8 6-9 Process Data flow Data store External entity 6-10 Context diagram Level 0 diagram Level 1 diagram Level 2 diagram 6-11 6-12

6-7 6-8 6-9 Process Data flow Data store External entity 6-10 Context diagram Level 0 diagram Level 1 diagram Level 2 diagram 6-11 6-12 6-1 6-2 6-3 6-4 6-5 6-6 6-7 6-8 6-9 Process Data flow Data store External entity 6-10 Context diagram Level 0 diagram Level 1 diagram Level 2 diagram 6-11 6-12 6-13 6-14 6-15 6-16 6-17 6-18 6-19 6-20 6-21

More information

OSI OSI 15% 20% OSI OSI ISO International Standard Organization 1984 OSI Open-data System Interface Reference Model OSI OSI OSI OSI ISO Prototype Prot

OSI OSI 15% 20% OSI OSI ISO International Standard Organization 1984 OSI Open-data System Interface Reference Model OSI OSI OSI OSI ISO Prototype Prot OSI OSI OSI 15% 20% OSI OSI ISO International Standard Organization 1984 OSI Open-data System Interface Reference Model OSI OSI OSI OSI ISO Prototype Protocol OSI OSI OSI OSI OSI O S I 2-1 Application

More information

9 什 么 是 竞 争 与 冒 险 现 象? 怎 样 判 断? 如 何 消 除?( 汉 王 笔 试 ) 在 组 合 逻 辑 中, 由 于 门 的 输 入 信 号 通 路 中 经 过 了 不 同 的 延 时, 导 致 到 达 该 门 的 时 间 不 一 致 叫 竞 争 产 生 毛 刺 叫 冒 险 如

9 什 么 是 竞 争 与 冒 险 现 象? 怎 样 判 断? 如 何 消 除?( 汉 王 笔 试 ) 在 组 合 逻 辑 中, 由 于 门 的 输 入 信 号 通 路 中 经 过 了 不 同 的 延 时, 导 致 到 达 该 门 的 时 间 不 一 致 叫 竞 争 产 生 毛 刺 叫 冒 险 如 FPGA 工 程 师 面 试 试 题 一 1 同 步 电 路 和 异 步 电 路 的 区 别 是 什 么?( 仕 兰 微 电 子 ) 2 什 么 是 同 步 逻 辑 和 异 步 逻 辑?( 汉 王 笔 试 ) 同 步 逻 辑 是 时 钟 之 间 有 固 定 的 因 果 关 系 异 步 逻 辑 是 各 时 钟 之 间 没 有 固 定 的 因 果 关 系 3 什 么 是 " 线 与 " 逻 辑, 要 实

More information

Preface This guide is intended to standardize the use of the WeChat brand and ensure the brand's integrity and consistency. The guide applies to all d

Preface This guide is intended to standardize the use of the WeChat brand and ensure the brand's integrity and consistency. The guide applies to all d WeChat Search Visual Identity Guidelines WEDESIGN 2018. 04 Preface This guide is intended to standardize the use of the WeChat brand and ensure the brand's integrity and consistency. The guide applies

More information

Microsoft PowerPoint - ATF2015.ppt [相容模式]

Microsoft PowerPoint - ATF2015.ppt [相容模式] Improving the Video Totalized Method of Stopwatch Calibration Samuel C.K. Ko, Aaron Y.K. Yan and Henry C.K. Ma The Government of Hong Kong Special Administrative Region (SCL) 31 Oct 2015 1 Contents Introduction

More information

Improved Preimage Attacks on AES-like Hash Functions: Applications to Whirlpool and Grøstl

Improved Preimage Attacks on AES-like Hash Functions: Applications to Whirlpool and Grøstl SKLOIS (Pseudo) Preimage Attack on Reduced-Round Grøstl Hash Function and Others Shuang Wu, Dengguo Feng, Wenling Wu, Jian Guo, Le Dong, Jian Zou March 20, 2012 Institute. of Software, Chinese Academy

More information

ap15_chinese_interpersoanal_writing_ _response

ap15_chinese_interpersoanal_writing_ _response 2015 SCORING GUIDELINES Interpersonal Writing: 6 EXCELLENT excellence in 5 VERY GOOD Suggests excellence in 4 GOOD 3 ADEQUATE Suggests 2 WEAK Suggests lack of 1 VERY WEAK lack of 0 UNACCEPTABLE Contains

More information

Computer Architecture

Computer Architecture ECE 3120 Computer Systems Assembly Programming Manjeera Jeedigunta http://blogs.cae.tntech.edu/msjeedigun21 Email: [email protected] Tel: 931-372-6181, Prescott Hall 120 Prev: Basic computer concepts

More information

Microsoft PowerPoint - ryz_030708_pwo.ppt

Microsoft PowerPoint - ryz_030708_pwo.ppt Long Term Recovery of Seven PWO Crystals Ren-yuan Zhu California Institute of Technology CMS ECAL Week, CERN Introduction 20 endcap and 5 barrel PWO crystals went through (1) thermal annealing at 200 o

More information

徐汇教育214/3月刊 重 点 关 注 高中生异性交往的小团体辅导 及效果研究 颜静红 摘 要 采用人际关系综合诊断量表 郑日昌编制并 与同性交往所不能带来的好处 带来稳定感和安全感 能 修订 对我校高一学生进行问卷测量 实验组前后测 在 够度过更快乐的时光 获得与别人友好相处的经验 宽容 量表总分和第 4 项因子分 异性交往困扰 上均有显著差 大度和理解力得到发展 得到掌握社会技术的机会 得到 异

More information

A VALIDATION STUDY OF THE ACHIEVEMENT TEST OF TEACHING CHINESE AS THE SECOND LANGUAGE by Chen Wei A Thesis Submitted to the Graduate School and Colleg

A VALIDATION STUDY OF THE ACHIEVEMENT TEST OF TEACHING CHINESE AS THE SECOND LANGUAGE by Chen Wei A Thesis Submitted to the Graduate School and Colleg 上 海 外 国 语 大 学 SHANGHAI INTERNATIONAL STUDIES UNIVERSITY 硕 士 学 位 论 文 MASTER DISSERTATION 学 院 国 际 文 化 交 流 学 院 专 业 汉 语 国 际 教 育 硕 士 题 目 届 别 2010 届 学 生 陈 炜 导 师 张 艳 莉 副 教 授 日 期 2010 年 4 月 A VALIDATION STUDY

More information

學校發展計劃(二零零六至二零零七年)

學校發展計劃(二零零六至二零零七年) 般 咸 道 官 立 小 學 2014-15 年 度 學 校 關 注 事 項 與 各 科 組 項 目 配 合 般 咸 種 子 自 學 勤 教 研 砥 礪 效 益 增 家 校 同 心 齊 奮 發 善 用 科 技 創 新 猷 學 校 發 展 計 劃 ( 二 零 一 四 二 零 一 五 年 ) 關 注 事 項 預 期 成 果 / 目 標 策 略 ( 科 目 ) 評 估 機 制 表 現 指 標 / 成 功 準

More information

中国人民大学商学院本科学年论文

中国人民大学商学院本科学年论文 RUC-BK-113-110204-11271374 2001 11271374 1 Nowadays, an enterprise could survive even without gaining any profit. However, once its operating cash flow stands, it is a threat to the enterprise. So, operating

More information

软件测试(TA07)第一学期考试

软件测试(TA07)第一学期考试 一 判 断 题 ( 每 题 1 分, 正 确 的, 错 误 的,20 道 ) 1. 软 件 测 试 按 照 测 试 过 程 分 类 为 黑 盒 白 盒 测 试 ( ) 2. 在 设 计 测 试 用 例 时, 应 包 括 合 理 的 输 入 条 件 和 不 合 理 的 输 入 条 件 ( ) 3. 集 成 测 试 计 划 在 需 求 分 析 阶 段 末 提 交 ( ) 4. 单 元 测 试 属 于 动

More information

untitled

untitled CPU!! 00-11-8 Liping zhang, Tsinghua 1 : ADD(r1, r, r) CMPLEC(r, 5, r0) MUL(r1, r, r) SUB(r1, r, r5) ADD r, ( ) r CMP. CMP r.. t t + 1 t + t + t + t + 5 t + 6 IF( ) ADD CMP MUL SUB RF NOP ADD CMP MUL SUB

More information

A Preliminary Implementation of Linux Kernel Virus and Process Hiding

A Preliminary Implementation of Linux Kernel Virus and Process Hiding 邵 俊 儒 翁 健 吉 妍 年 月 日 学 号 学 号 学 号 摘 要 结 合 课 堂 知 识 我 们 设 计 了 一 个 内 核 病 毒 该 病 毒 同 时 具 有 木 马 的 自 动 性 的 隐 蔽 性 和 蠕 虫 的 感 染 能 力 该 病 毒 获 得 权 限 后 会 自 动 将 自 身 加 入 内 核 模 块 中 劫 持 的 系 统 调 用 并 通 过 简 单 的 方 法 实 现 自 身 的

More information

東莞工商總會劉百樂中學

東莞工商總會劉百樂中學 /2015/ 頁 (2015 年 版 ) 目 錄 : 中 文 1 English Language 2-3 數 學 4-5 通 識 教 育 6 物 理 7 化 學 8 生 物 9 組 合 科 學 ( 化 學 ) 10 組 合 科 學 ( 生 物 ) 11 企 業 會 計 及 財 務 概 論 12 中 國 歷 史 13 歷 史 14 地 理 15 經 濟 16 資 訊 及 通 訊 科 技 17 視 覺

More information

從詩歌的鑒賞談生命價值的建構

從詩歌的鑒賞談生命價值的建構 Viktor E. Frankl (logotherapy) (will-to-meaning) (creative values) Ture (Good) (Beauty) (experiential values) (attitudinal values) 1 2 (logotherapy) (biological) (2) (psychological) (3) (noölogical) (4)

More information

1.ai

1.ai HDMI camera ARTRAY CO,. LTD Introduction Thank you for purchasing the ARTCAM HDMI camera series. This manual shows the direction how to use the viewer software. Please refer other instructions or contact

More information

TX-NR3030_BAS_Cs_ indd

TX-NR3030_BAS_Cs_ indd TX-NR3030 http://www.onkyo.com/manual/txnr3030/adv/cs.html Cs 1 2 3 Speaker Cable 2 HDMI OUT HDMI IN HDMI OUT HDMI OUT HDMI OUT HDMI OUT 1 DIGITAL OPTICAL OUT AUDIO OUT TV 3 1 5 4 6 1 2 3 3 2 2 4 3 2 5

More information

Microsoft PowerPoint - Performance Analysis of Video Streaming over LTE using.pptx

Microsoft PowerPoint - Performance Analysis of Video Streaming over LTE using.pptx ENSC 427 Communication Networks Spring 2016 Group #2 Project URL: http://www.sfu.ca/~rkieu/ensc427_project.html Amer, Zargham 301149920 Kieu, Ritchie 301149668 Xiao, Lei 301133381 1 Roadmap Introduction

More information

Value Chain ~ (E-Business RD / Pre-Sales / Consultant) APS, Advanc

Value Chain ~ (E-Business RD / Pre-Sales / Consultant) APS, Advanc Key @ Value Chain [email protected] 1 Key@ValueChain 1994.6 1996.6 2000.6 2000.10 ~ 2004.10 (E- RD / Pre-Sales / Consultant) APS, Advanced Planning & Scheduling CDP, Collaborative Demand Planning

More information

A Study on Grading and Sequencing of Senses of Grade-A Polysemous Adjectives in A Syllabus of Graded Vocabulary for Chinese Proficiency 2002 I II Abstract ublished in 1992, A Syllabus of Graded Vocabulary

More information

摘 要 互 联 网 的 勃 兴 为 草 根 阶 层 书 写 自 我 和 他 人 提 供 了 契 机, 通 过 网 络 自 由 开 放 的 平 台, 网 络 红 人 风 靡 于 虚 拟 世 界 近 年 来, 或 无 心 插 柳, 或 有 意 噱 头, 或 自 我 表 达, 或 幕 后 操 纵, 网 络

摘 要 互 联 网 的 勃 兴 为 草 根 阶 层 书 写 自 我 和 他 人 提 供 了 契 机, 通 过 网 络 自 由 开 放 的 平 台, 网 络 红 人 风 靡 于 虚 拟 世 界 近 年 来, 或 无 心 插 柳, 或 有 意 噱 头, 或 自 我 表 达, 或 幕 后 操 纵, 网 络 上 海 外 国 语 大 学 硕 士 学 位 论 文 论 文 题 目 从 偶 像 符 号 的 消 解 到 消 费 符 号 的 建 构 网 络 红 人 的 形 象 变 迁 研 究 学 科 专 业 传 播 学 届 别 2013 届 姓 名 孙 清 导 师 王 玲 宁 I 摘 要 互 联 网 的 勃 兴 为 草 根 阶 层 书 写 自 我 和 他 人 提 供 了 契 机, 通 过 网 络 自 由 开 放 的

More information

2009.05

2009.05 2009 05 2009.05 2009.05 璆 2009.05 1 亿 平 方 米 6 万 套 10 名 20 亿 元 5 个 月 30 万 亿 60 万 平 方 米 Data 围 观 CCDI 公 司 内 刊 企 业 版 P08 围 观 CCDI 管 理 学 上 有 句 名 言 : 做 正 确 的 事, 比 正 确 地 做 事 更 重 要 方 向 的 对 错 于 大 局 的 意 义 而 言,

More information

高中英文科教師甄試心得

高中英文科教師甄試心得 高 中 英 文 科 教 師 甄 試 心 得 英 語 學 系 碩 士 班 林 俊 呈 高 雄 市 立 高 雄 高 級 中 學 今 年 第 一 次 參 加 教 師 甄 試, 能 夠 在 尚 未 服 兵 役 前 便 考 上 高 雄 市 立 高 雄 高 級 中 學 專 任 教 師, 自 己 覺 得 很 意 外, 也 很 幸 運 考 上 後 不 久 在 與 雄 中 校 長 的 會 談 中, 校 長 的 一 句

More information

可 愛 的 動 物 小 五 雷 雅 理 第 一 次 小 六 甲 黃 駿 朗 今 年 暑 假 發 生 了 一 件 令 人 非 常 難 忘 的 事 情, 我 第 一 次 參 加 宿 營, 離 開 父 母, 自 己 照 顧 自 己, 出 發 前, 我 的 心 情 十 分 緊 張 當 到 達 目 的 地 後

可 愛 的 動 物 小 五 雷 雅 理 第 一 次 小 六 甲 黃 駿 朗 今 年 暑 假 發 生 了 一 件 令 人 非 常 難 忘 的 事 情, 我 第 一 次 參 加 宿 營, 離 開 父 母, 自 己 照 顧 自 己, 出 發 前, 我 的 心 情 十 分 緊 張 當 到 達 目 的 地 後 郭家朗 許鈞嵐 劉振迪 樊偉賢 林洛鋒 第 36 期 出版日期 28-3-2014 出版日期 28-3-2014 可 愛 的 動 物 小 五 雷 雅 理 第 一 次 小 六 甲 黃 駿 朗 今 年 暑 假 發 生 了 一 件 令 人 非 常 難 忘 的 事 情, 我 第 一 次 參 加 宿 營, 離 開 父 母, 自 己 照 顧 自 己, 出 發 前, 我 的 心 情 十 分 緊 張 當 到 達 目

More information

學校發展計劃(二零零六至二零零七年)

學校發展計劃(二零零六至二零零七年) 般 咸 道 官 立 小 學 2015-16 年 度 學 校 關 注 事 項 與 各 科 組 項 目 配 合 般 咸 種 子 自 學 勤 教 研 砥 礪 效 益 增 家 校 同 心 齊 奮 發 善 用 科 技 創 新 猷 學 校 發 展 計 劃 ( 二 零 一 五 二 零 一 六 年 ) 關 注 事 項 預 期 成 果 / 目 標 策 略 ( 科 目 ) 評 估 機 制 表 現 指 標 / 成 功 準

More information

untitled

untitled Ogre Rendering System http://antsam.blogone.net [email protected] geometry systemmaterial systemshader systemrendering system API API DirectX OpenGL API Pipeline Abstraction API Pipeline Pipeline configurationpipeline

More information

Microsoft Word - TIP006SCH Uni-edit Writing Tip - Presentperfecttenseandpasttenseinyourintroduction readytopublish

Microsoft Word - TIP006SCH Uni-edit Writing Tip - Presentperfecttenseandpasttenseinyourintroduction readytopublish 我 难 度 : 高 级 对 们 现 不 在 知 仍 道 有 听 影 过 响 多 少 那 次 么 : 研 英 究 过 文 论 去 写 文 时 作 的 表 技 引 示 巧 言 事 : 部 情 引 分 发 言 该 生 使 在 中 用 过 去, 而 现 在 完 成 时 仅 表 示 事 情 发 生 在 过 去, 并 的 哪 现 种 在 时 完 态 成 呢 时? 和 难 过 道 去 不 时 相 关? 是 所 有

More information

第五章 重叠、流水和现代处理器技术

第五章 重叠、流水和现代处理器技术 2006 5 l t 1 t 2 t 3 t 4 I: add r1,r2,r3 J: sub r4,r1,r5 : (Hazard) : (Hazard) Instr 1 Instr 2 ( ) Cycle 1 Cycle 2 Cycle 3 Cycle 4 Cycle 5 Cycle 6 Cycle 7 Load Ifetch ALU DMem Instr 1 Ifetch ALU DMem

More information

untitled

untitled Co-integration and VECM Yi-Nung Yang CYCU, Taiwan May, 2012 不 列 1 Learning objectives Integrated variables Co-integration Vector Error correction model (VECM) Engle-Granger 2-step co-integration test Johansen

More information

CANVIO_AEROCAST_CS_EN.indd

CANVIO_AEROCAST_CS_EN.indd 简 体 中 文...2 English...4 SC5151-A0 简 体 中 文 步 骤 2: 了 解 您 的 CANVIO AeroCast CANVIO AeroCast 无 线 移 动 硬 盘 快 速 入 门 指 南 欢 迎 并 感 谢 您 选 择 TOSHIBA 产 品 有 关 您 的 TOSHIBA 产 品 的 详 情, 请 参 阅 包 含 更 多 信 息 的 用 户 手 册 () 安

More information

2015年4月11日雅思阅读预测机经(新东方版)

2015年4月11日雅思阅读预测机经(新东方版) 剑 桥 雅 思 10 第 一 时 间 解 析 阅 读 部 分 1 剑 桥 雅 思 10 整 体 内 容 统 计 2 剑 桥 雅 思 10 话 题 类 型 从 以 上 统 计 可 以 看 出, 雅 思 阅 读 的 考 试 话 题 一 直 广 泛 多 样 而 题 型 则 稳 中 有 变 以 剑 桥 10 的 test 4 为 例 出 现 的 三 篇 文 章 分 别 是 自 然 类, 心 理 研 究 类,

More information

Microsoft Word doc

Microsoft Word doc 中 考 英 语 科 考 试 标 准 及 试 卷 结 构 技 术 指 标 构 想 1 王 后 雄 童 祥 林 ( 华 中 师 范 大 学 考 试 研 究 院, 武 汉,430079, 湖 北 ) 提 要 : 本 文 从 结 构 模 式 内 容 要 素 能 力 要 素 题 型 要 素 难 度 要 素 分 数 要 素 时 限 要 素 等 方 面 细 致 分 析 了 中 考 英 语 科 试 卷 结 构 的

More information

( 一 ) 實 習 的 時 候 就 和 讀 書 會 的 同 學 一 起 把 陳 嘉 陽 紮 實 地 讀 過 一 遍 了, 也 因 此 在 考 完 教 檢 之 後, 我 們 只 有 把 不 熟 或 是 常 考 的 章 節 再 導 讀 一 次 ( 例 如 : 統 計 行 政 法 規 ), 主 力 則 是

( 一 ) 實 習 的 時 候 就 和 讀 書 會 的 同 學 一 起 把 陳 嘉 陽 紮 實 地 讀 過 一 遍 了, 也 因 此 在 考 完 教 檢 之 後, 我 們 只 有 把 不 熟 或 是 常 考 的 章 節 再 導 讀 一 次 ( 例 如 : 統 計 行 政 法 規 ), 主 力 則 是 確 立 目 標, 全 力 衝 刺 102 年 國 中 英 文 科 教 甄 準 備 心 得 主 修 社 會 教 育 學 系 輔 修 英 語 學 系 100 級 臺 北 市 立 東 湖 國 民 中 學 王 建 順 壹 102 國 中 英 文 科 教 甄 準 備 心 得 -- 筆 試 篇 有 幸 能 在 第 一 年 的 第 一 場 國 中 教 甄 脫 穎 而 出, 一 路 上 很 感 謝 前 輩 學 長

More information

自由軟體教學平台

自由軟體教學平台 NCHC Opensource task force Steven Shiau [email protected] National Center for High-Performance Computing Sep 10, 2002 1 Outline 1. 2. 3. Service DHCP, TFTP, NFS, NIS 4. 5. 2 DRBL (diskless remote boot

More information

南華大學數位論文

南華大學數位論文 The Digital Divide on the Remote Area: Regarding the community of Ta-Pang in Mt. A-li Abstract Base on the coming of information society, the digital science and technology usage suppose to be the basic

More information

1. 請 先 檢 查 包 裝 內 容 物 AC750 多 模 式 無 線 分 享 器 安 裝 指 南 安 裝 指 南 CD 光 碟 BR-6208AC 電 源 供 應 器 網 路 線 2. 將 設 備 接 上 電 源, 即 可 使 用 智 慧 型 無 線 裝 置 進 行 設 定 A. 接 上 電 源

1. 請 先 檢 查 包 裝 內 容 物 AC750 多 模 式 無 線 分 享 器 安 裝 指 南 安 裝 指 南 CD 光 碟 BR-6208AC 電 源 供 應 器 網 路 線 2. 將 設 備 接 上 電 源, 即 可 使 用 智 慧 型 無 線 裝 置 進 行 設 定 A. 接 上 電 源 1. 請 先 檢 查 包 裝 內 容 物 AC750 多 模 式 無 線 分 享 器 安 裝 指 南 安 裝 指 南 CD 光 碟 BR-6208AC 電 源 供 應 器 網 路 線 2. 將 設 備 接 上 電 源, 即 可 使 用 智 慧 型 無 線 裝 置 進 行 設 定 A. 接 上 電 源 B. 啟 用 智 慧 型 裝 置 的 無 線 Wi-Fi C. 選 擇 無 線 網 路 名 稱 "edimax.setup"

More information

Abstract Today, the structures of domestic bus industry have been changed greatly. Many manufacturers enter into the field because of its lower thresh

Abstract Today, the structures of domestic bus industry have been changed greatly. Many manufacturers enter into the field because of its lower thresh SWOT 5 Abstract Today, the structures of domestic bus industry have been changed greatly. Many manufacturers enter into the field because of its lower threshold. All of these lead to aggravate drastically

More information

Microsoft Word - 01李惠玲ok.doc

Microsoft Word - 01李惠玲ok.doc 康 寧 學 報 11:1-20(2009) 1 數 位 學 習 於 護 理 技 術 課 程 之 運 用 與 評 值 * 李 惠 玲 ** 高 清 華 *** 呂 莉 婷 摘 要 背 景 : 網 路 科 技 在 教 育 的 使 用 已 成 為 一 種 有 利 的 教 學 輔 助 工 具 網 路 教 學 的 特 性, 在 使 學 習 可 不 分 時 間 與 空 間 不 同 進 度 把 握 即 時 性 資

More information

JAEA-Technology indb

JAEA-Technology indb NBI 1 * 2 1 (2008 3 6 ) PLC 311-0193 801-1 1 2 Update of Control System for Auxiliary Pumping and Primary Water Cooling Facilities in JT-60 NBI Katsumi KIKUCHI 1, Noboru AKINO, Noboru EBISAWA, Yoshitaka

More information

Chinese oil import policies and reforms 随 着 经 济 的 发 展, 目 前 中 国 石 油 消 费 总 量 已 经 跃 居 世 界 第 二 作 为 一 个 负 责 任 的 大 国, 中 国 正 在 积 极 推 进 能 源 进 口 多 元 化, 鼓 励 替 代

Chinese oil import policies and reforms 随 着 经 济 的 发 展, 目 前 中 国 石 油 消 费 总 量 已 经 跃 居 世 界 第 二 作 为 一 个 负 责 任 的 大 国, 中 国 正 在 积 极 推 进 能 源 进 口 多 元 化, 鼓 励 替 代 Chinese oil import policies and reforms SINOPEC EDRI 2014.8 Chinese oil import policies and reforms 随 着 经 济 的 发 展, 目 前 中 国 石 油 消 费 总 量 已 经 跃 居 世 界 第 二 作 为 一 个 负 责 任 的 大 国, 中 国 正 在 积 极 推 进 能 源 进 口 多 元 化,

More information

Edge-Triggered Rising Edge-Triggered ( Falling Edge-Triggered ( Unit 11 Latches and Flip-Flops 3 Timing for D Flip-Flop (Falling-Edge Trigger) Unit 11

Edge-Triggered Rising Edge-Triggered ( Falling Edge-Triggered ( Unit 11 Latches and Flip-Flops 3 Timing for D Flip-Flop (Falling-Edge Trigger) Unit 11 Latches and Flip-Flops 11.1 Introduction 11.2 Set-Reset Latch 11.3 Gated D Latch 11.4 Edge-Triggered D Flip-Flop 11.5 S-R Flip-Flop 11.6 J-K Flip-Flop 11.7 T Flip-Flop 11.8 Flip-Flops with additional Inputs

More information

2005 Research on the Lucre, Risk, and Development of Native Bankcard Business 2005 3 2003 6.5 45 18, WTO SWOT I Abstract Research on the Lucre, Risk, and Development of Native Bankcard Business Research

More information

solutions guide

solutions guide solutions guide Tridium 01 Table of Contents Tridium... 1 Frameworks... 4 Niagara AX Framework... 5 Sedona Framework... 6.... 7 NPM... 8 Sedona Chip... 9 AX Supervisor... 10 AX SoftJACE...11...12. JACE

More information

Microsoft Word - 11月電子報1130.doc

Microsoft Word - 11月電子報1130.doc 發 行 人 : 楊 進 成 出 刊 日 期 2008 年 12 月 1 日, 第 38 期 第 1 頁 / 共 16 頁 封 面 圖 話 來 來 來, 來 葳 格 ; 玩 玩 玩, 玩 數 學 在 11 月 17 到 21 日 這 5 天 裡 每 天 一 個 題 目, 孩 子 們 依 據 不 同 年 段, 尋 找 屬 於 自 己 的 解 答, 這 些 數 學 題 目 和 校 園 情 境 緊 緊 結

More information

Your Field Guide to More Effective Global Video Conferencing As a global expert in video conferencing, and a geographically dispersed company that uses video conferencing in virtually every aspect of its

More information

Microsoft PowerPoint _代工實例-1

Microsoft PowerPoint _代工實例-1 4302 動態光散射儀 (Dynamic Light Scattering) 代工實例與結果解析 生醫暨非破壞性分析團隊 2016.10 updated Which Size to Measure? Diameter Many techniques make the useful and convenient assumption that every particle is a sphere. The

More information

Chn 116 Neh.d.01.nis

Chn 116 Neh.d.01.nis 31 尼 希 米 书 尼 希 米 的 祷 告 以 下 是 哈 迦 利 亚 的 儿 子 尼 希 米 所 1 说 的 话 亚 达 薛 西 王 朝 二 十 年 基 斯 流 月 *, 我 住 在 京 城 书 珊 城 里 2 我 的 兄 弟 哈 拿 尼 和 其 他 一 些 人 从 犹 大 来 到 书 珊 城 我 向 他 们 打 听 那 些 劫 后 幸 存 的 犹 太 人 家 族 和 耶 路 撒 冷 的 情 形

More information

Serial ATA ( Silicon Image SiI3114)...2 (1) SATA... 2 (2) B I O S S A T A... 3 (3) RAID BIOS RAID... 5 (4) S A T A... 8 (5) S A T A... 10

Serial ATA ( Silicon Image SiI3114)...2 (1) SATA... 2 (2) B I O S S A T A... 3 (3) RAID BIOS RAID... 5 (4) S A T A... 8 (5) S A T A... 10 Serial ATA ( Silicon Image SiI3114)...2 (1) SATA... 2 (2) B I O S S A T A... 3 (3) RAID BIOS RAID... 5 (4) S A T A... 8 (5) S A T A... 10 Ác Åé å Serial ATA ( Silicon Image SiI3114) S A T A (1) SATA (2)

More information

Important Notice SUNPLUS TECHNOLOGY CO. reserves the right to change this documentation without prior notice. Information provided by SUNPLUS TECHNOLO

Important Notice SUNPLUS TECHNOLOGY CO. reserves the right to change this documentation without prior notice. Information provided by SUNPLUS TECHNOLO Car DVD New GUI IR Flow User Manual V0.1 Jan 25, 2008 19, Innovation First Road Science Park Hsin-Chu Taiwan 300 R.O.C. Tel: 886-3-578-6005 Fax: 886-3-578-4418 Web: www.sunplus.com Important Notice SUNPLUS

More information

Guide to Install SATA Hard Disks

Guide to Install SATA Hard Disks SATA RAID 1. SATA. 2 1.1 SATA. 2 1.2 SATA 2 2. RAID (RAID 0 / RAID 1 / JBOD).. 4 2.1 RAID. 4 2.2 RAID 5 2.3 RAID 0 6 2.4 RAID 1.. 10 2.5 JBOD.. 16 3. Windows 2000 / Windows XP 20 1. SATA 1.1 SATA Serial

More information

Microsoft PowerPoint - ch6 [相容模式]

Microsoft PowerPoint - ch6 [相容模式] UiBinder [email protected] UiBinder Java GWT UiBinder XML UI i18n (widget) 1 2 UiBinder HelloWidget.ui.xml: UI HelloWidgetBinder HelloWidget.java XML UI Owner class ( Composite ) UI XML UiBinder: Owner

More information

Microsoft PowerPoint - CA_02 Chapter5 Part-I_Single _V2.ppt

Microsoft PowerPoint - CA_02 Chapter5 Part-I_Single _V2.ppt Chapter5- The Processor: Datapath and Control (Single-cycle implementation) 臺大電機系吳安宇教授 V. 3/27/27 V2. 3/29/27 For 27 DSD Course 臺大電機吳安宇教授 - 計算機結構 Outline 5. Introduction 5.2 Logic Design Conventions 5.3

More information