Parallel Programming with MPI

Similar documents
PowerPoint 演示文稿

Linux Linux Linux

PowerPoint 演示文稿

消息传递并行编程环境MPI.doc

投影片 1

1 学习目标了解并掌握 MPI 的各种非阻塞通信形式及其作用, 并能运用 MPI 的非阻塞通信语句编写高级的并行程序 2 重点和难点非阻塞通信的语义特点, 如何运用非阻塞通信的特点来实现特定的功能和性能 3 学习方法所有的阻塞调用形式都有其相应的非阻塞调用形式, 此外非阻塞调用还有其特殊的接口形式

mpi

Microsoft PowerPoint - Tongji_MPI编程初步


模板

第7章-并行计算.ppt

目 录 参 考 材 料 1 第 一 章 预 备 知 识 高 性 能 并 行 计 算 机 系 统 简 介 微 处 理 器 的 存 储 结 构

Microsoft PowerPoint - KN002.ppt

Parallel Programming with MPI

PowerPoint Presentation

PowerPoint 演示文稿

PowerPoint 演示文稿

大綱介紹 MPI 標準介紹 MPI 的主要目標 Compiler & Run 平行程式 MPICH 程式基本架構 點對點通訊 函數介紹 集體通訊 函數介紹

Department of Science and Engineering Computing School of Mathematics School Peking University October 9, 2007

MPI实验.doc

PowerPoint 演示文稿

目录 第一章 MPI 简介 消息传递编程的相关概念 分布式内存 消息传输 进程 消息传递库 发送 / 接收 同步 / 异步 阻塞

CC213

07-1.indd

C 1

Microsoft Word - 把时间当作朋友(2011第3版)3.0.b.06.doc

C/C++语言 - C/C++数据

Slide 1

FY.DOC

mannal

Department of Science and Engineering Computing School of Mathematics School Peking University October 9, 2007

to AztecOO Department of Science and Engineering Computing School of Mathematics School Peking University October 9, 2007

1 Project New Project 1 2 Windows 1 3 N C test Windows uv2 KEIL uvision2 1 2 New Project Ateml AT89C AT89C51 3 KEIL Demo C C File

科学计算的语言-FORTRAN95

OOP with Java 通知 Project 2 提交时间 : 3 月 14 日晚 9 点 另一名助教 : 王桢 学习使用文本编辑器 学习使用 cmd: Power shell 阅读参考资料

untitled

OOP with Java 通知 Project 4: 4 月 18 日晚 9 点 关于抄袭 没有分数

epub 33-8

新・明解C言語入門編『索引』

C++ 程式設計

c_cpp

mpic_2002

untitled

OOP with Java 通知 Project 4: 4 月 19 日晚 9 点

Trilinos 简介 Trilinos 简介 卢朓 Trilinos 简介 卢朓 Trilinos 简介 Trilinos 简介 Trilinos 的安装和使用 Trilinos 简介 Trilinos 简介 Trilinos 的安装和使用 Trilinos 简介 Trilinos Epetra

51 C 51 isp 10 C PCB C C C C KEIL

SDK 概要 使用 Maven 的用户可以从 Maven 库中搜索 "odps-sdk" 获取不同版本的 Java SDK: 包名 odps-sdk-core odps-sdk-commons odps-sdk-udf odps-sdk-mapred odps-sdk-graph 描述 ODPS 基

untitled

3.1 num = 3 ch = 'C' 2

, 7, Windows,,,, : ,,,, ;,, ( CIP) /,,. : ;, ( 21 ) ISBN : -. TP CIP ( 2005) 1

Chapter #

untitled

网上对外发布资料适用版本

chap07.key

Generated by Unregistered Batch DOC TO PDF Converter , please register! 浙江大学 C 程序设计及实验 试题卷 学年春季学期考试时间 : 2003 年 6 月 20 日上午 8:3

nooog

Microsoft Word - FPKLSC_21.docx

int *p int a 0x00C7 0x00C7 0x00C int I[2], *pi = &I[0]; pi++; char C[2], *pc = &C[0]; pc++; float F[2], *pf = &F[0]; pf++;

新版 明解C++入門編

《C语言程序设计》教材习题参考答案

untitled

Linux系统下程序的编译运行

Microsoft PowerPoint - 07 派生数据类型

C/C++ 语言 - 循环

( CIP) /. :, ( ) ISBN TP CIP ( 2005) : : : : * : : 174 ( A ) : : ( 023) : ( 023)

, 即 使 是 在 昏 暗 的 灯 光 下, 她 仍 然 可 以 那 么 耀 眼 我 没 有 地 方 去, 你 会 带 着 我 么 杜 晗 像 是 在 嘲 笑 一 般, 嘴 角 的 一 抹 冷 笑 有 着 不 适 合 这 个 年 龄 的 冷 酷 和 无 情, 看 着 江 华 的 眼 神 毫 无 温

OOP with Java 通知 Project 4: 5 月 2 日晚 9 点

Microsoft PowerPoint - PC14.pptx

BOOL EnumWindows(WNDENUMPROC lparam); lpenumfunc, LPARAM (Native Interface) PowerBuilder PowerBuilder PBNI 2

mvc

6 C51 ANSI C Turbo C C51 Turbo C C51 C51 C51 C51 C51 C51 C51 C51 C C C51 C51 ANSI C MCS-51 C51 ANSI C C C51 bit Byte bit sbit

C PICC C++ C++ C C #include<pic.h> C static volatile unsigned char 0x01; static volatile unsigned char 0x02; static volatile unsigned cha

2013 C 1 # include <stdio.h> 2 int main ( void ) 3 { 4 int cases, a, b, i; 5 scanf ("%d", & cases ); 6 for (i = 0;i < cases ;i ++) 7 { 8 scanf ("%d %d

C6_ppt.PDF

六域链联盟 SDChain-Matrix 节点搭建指南 2018/07/26 Version : 1.0.0

《C语言程序设计》第2版教材习题参考答案

Department of Science and Engineering Computing School of Mathematics School Peking University August 14, 2007

Guava学习之Resources

C 1 # include <stdio.h> 2 int main ( void ) { 4 int cases, i; 5 long long a, b; 6 scanf ("%d", & cases ); 7 for (i = 0;i < cases ;i ++) 8 { 9

C

Microsoft PowerPoint - ds-1.ppt [兼容模式]

untitled

Microsoft Word - 实用案例.doc

untitled

MPI编译环境的使用

fvalue = (pdata[y][i] + pdata[y][i + 1]) / 2; pdata[y][nhalfw + i] -= fvalue; fvalue = (pdata[y][nhalfw - 1] + pdata[y][nhalfw - 2]) / 2; pdata[y][nwi

<4D F736F F D20482E323634B5F8B054BD73BD58A4A7A5ADA6E6A4C6ACE3A8732E646F63>

instructions.PDF

华恒家庭网关方案

帝国CMS下在PHP文件中调用数据库类执行SQL语句实例

概述

01

OOP with Java 通知 Project 2 提交时间 : 3 月 21 日晚 9 点 作业提交格式 学习使用 文本编辑器 cmd, PowerShell (Windows), terminal(linux, Mac)


提纲 1 2 OS Examples for 3

Microsoft PowerPoint - 8. 运算符重载 Operator Overloading.pptx

第11章 可调内核参数

图 4.2 udpclient 项目解决方案 3. 客户机程序编码如下 : 程序 : udp 客户机程序 udpclient.cpp

Microsoft PowerPoint - VCAD.ppt []

Transcription:

MPI 并行编程入门 中国科学院计算机网络信息中心超级计算中心

参考材料 张林波清华大学出版社莫则尧科学出版社都志辉清华大学出版社

消息传递平台 MPI 什么是 MPI (Message Passing Interface) 是函数库规范, 而不是并行语言 ; 操作如同库函数调用 是一种标准和规范, 而非某个对它的具体实现 (MPICH 等 ), 与编程语言无关 是一种消息传递编程模型, 并成为这类编程模型的代表 What is the message? DATA+ENVELOPE MPI 的目标 较高的通信性能 较好的程序可移植性 强大的功能

MPI 的产生 1992-1994 年,MPI 1.1 版本问世 1995-1997 年,MPI 2.0 版本出现 扩充并行 I/O 远程存储访问 动态进程管理等 MPI 的语言绑定 Fortran( 科学与工程计算 ) C( 系统和应用程序开发 ) 主要的 MPI 实现 并行机厂商提供 消息传递平台 MPI 高校 科研部门 MPICH (http://www.mcs.anl.gov/mpi/mpich ) LAMMPI (http://www.lam-mpi.org/)

MPI 程序编译与运行 程序编译 C: %mpicc -o mpiprog mpisrc.c Fortran 77: %mpif77 -o mpiprog mpisrc.f 程序运行 消息传递平台 MPI %mpirun -np 4 mpiprog 程序执行过程中不能动态改变进程的个数 申请的进程数 np 与实际处理器个数无关

MPI 基础知识 进程与消息传递 MPI 重要概念 MPI 函数一般形式 MPI 原始数据类型 MPI 程序基本结构 MPI 几个基本函数 并行编程模式

进程与消息传递 单个进程 (process) 进程与程序相联, 程序一旦在操作系统中运行即成为进程 进程拥有独立的执行环境 ( 内存 寄存器 程序计数器等 ), 是操作系统中独立存在的可执行的基本程序单位 串行应用程序编译形成的可执行代码, 分为 指令 和 数据 两个部分, 并在程序执行时 独立地申请和占有 内存空间, 且所有计算均局限于该内存空间 进程 1 进程 2 内存

进程与消息传递 单机内多个进程 多个进程可同时存在于单机内同一操作系统 操作系统负责调度分时共享处理机资源 (CPU 内存 存储 外设等) 进程间相互独立 ( 内存空间不相交 ) 在操作系统调度下各自独立地运行, 例如多个串行应用程序在同一台计算机运行 进程间可以相互交换信息 例如数据交换 同步等待, 消息是这些交换信息的基本单位, 消息传递是指这些信息在进程间的相互交换, 是实现进程间通信的唯一方式

进程与消息传递 包含于通过网络联接的不同处理器的多个进程 进程独立存在, 并位于不同的处理器, 由各自独立的操作系统调度, 享有独立的 CPU 和内存资源 进程间相互信息交换, 可依靠消息传递 最基本的消息传递操作包括发送消息 send 接受消息 receive 进程同步 barrier 归约 reduction 等

MPI 重要概念 进程组 (process group) 指 MPI 程序的全部进程集合的一个有序子集且进程组中每个进程被赋于一个在该组中唯一的序号 (rank), 用于在该组中标识该进程 序号的取值范围是 [0, 进程数 -1] 通信器 (communicator) 理解为一类进程的集合即一个进程组, 且在该进程组, 进程间可以相互通信 任何 MPI 通信函数均必须在某个通信器内发生 MPI 系统提供省缺的通信器 MPI_COMM_WORLD, 所有启动的 MPI 进程通过调用函数 MPI_Init() 包含在该通信器内 ; 各进程通过函数 MPI_Comm_size() 获取通信器包含的 ( 初始启动 ) 的 MPI 进程个数 组内通信器和组间通信器

MPI 重要概念 进程序号 (rank) 用来在一个进程组或通信器中标识一个进程 MPI 程序中的进程由进程组或通信器序号唯一确定, 序号相对于进程组或通信器而言 ( 假设 np 个处理器, 标号 0 np-1) 同一个进程在不同的进程组或通信器中可以有不同的序号, 进程的序号是在进程组或通信器被创建时赋予的 MPI 系统提供了一个特殊的进程序号 MPI_PROC_NULL, 它代表空进程 ( 不存在的进程 ), 与 MPI_PROC_NULL 间的通信实际上没有任何作用 消息 (message) 分为数据 (data) 和包装 (envelope) 两个部分 包装由接收进程序号 / 发送进程序号 消息标号和通信器三部分组成 ; 数据包含用户将要传递的内容

MPI 重要概念 MPI 对象 MPI 系统内部定义的数据结构, 包括数据类型 ( 如 MPI_INT) 通信器(MPI_Comm) 通信请求(MPI_Request) 等, 它们对用户不透明 在 FORTRAN 语言中, 所有 MPI 对象均必须说明为 整型变量 INTEGER MPI 联接器 (handles) 联接 MPI 对象的具体变量, 用户可以通过它访问和参与相应 MPI 对象的具体操作 例如,MPI 系统内部提供的通信器 MPI_COMM_WORLD 在 FORTRAN 语言中, 所有 MPI 联接器均必须说明为 整型变量 INTEGER

MPI 函数一般形式 C: error = MPI_Xxxxx(parameter,...); MPI_Xxxxx(parameter,...); 整型错误码由函数值返回 除 MPI_Wtime() 和 MPI_Wtick() 外, 所有 MPI 的 C 函数均返回一个整型错误码 成功时返回 MPI_SUCCESS, 其他错误代码依赖于执行 Fortran 77 : CALL MPI_XXXXX(parameter,...,IERROR) 整型错误码由函数的参数返回 除 MPI_WTIME() 和 MPI_WTICK() 外为子函数程序 (function), Fortran77 的所有 MPI 过程都是 Fortran77 的子例行程序 (subroutine)

MPI 原始数据类型 MPI Datatype MPI_CHAR MPI_SHORT MPI_INT MPI_LONG MPI_UNSIGNED_CHAR MPI_UNSIGNED_SHORT MPI_UNSIGNED MPI_UNSIGNED_LONG MPI_FLOAT MPI_DOUBLE MPI_LONG_DOUBLE MPI_BYTE MPI_PACKED C Datatype Signed char Signed short int Signed int Signed log int Unsigned char Unsigned short int Unsigned int Unsigned long int Float Double Long double MPI_BYTE 一个字节 MPI_PACKED 打包数据

MPI 原始数据类型 MPI Datatype MPI_INTEGER MPI_REAL MPI_DOUBLE_PRECISION MPI_COMPLEX MPI_LOGICAL MPI_CHARACTER Fortran Datatype INTEGER REAL DOUBLE PRECISION COMPLEX LOGICAL CHARACTER(1) MPI_BYTE MPI_PACKED

MPI 程序基本结构 MPI include file 变量定义 MPI 环境初始化 执行程序进程间通信 #include <mpi.h> void main (int argc, char *argv[]) { int np, rank, ierr; ierr = MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); MPI_Comm_size(MPI_COMM_WORLD,&np); /* Do Some Works */ ierr = MPI_Finalize(); } 退出 MPI 环境

MPI 几个基本函数 Index MPI_Init MPI_Initialized MPI_Comm_size MPI_Comm_rank MPI_Finalize MPI_Abort MPI_Get_processor_name MPI_Get_version MPI_Wtime

MPI 几个基本函数 初始化 MPI 系统 C: int MPI_Init(int *argc, char *argv[]) Fortran 77: MPI_INIT(IERROR) INTEGER IERROR 通常为第一个调用的 MPI 函数, 除 MPI_Initialized 外 在 C 接口中,MPI 系统通过 argc 和 argv 得到命令行参数, 并且会把 MPI 系统专用的参数删除, 留下用户的解释参数

MPI 几个基本函数 检测 MPI 系统是否已经初始化 C: int MPI_Initialized(int *flag) Fortran 77: MPI_INIT(FLAG,IERROR) LOGICAL FLAG INTEGER IERROR 唯一可在 MPI_Init 前使用的函数 已经调用 MPI_Init, 返回 flag=true, 否则 flag=false

MPI 几个基本函数 得到通信器的进程数和进程在通信器中的标号 C: int MPI_Comm_size(MPI_Comm comm, int *size) int MPI_Comm_rank(MPI_Comm comm, int *rank) Fortran 77: MPI_COMM_SIZE(COMM, SIZE, IERROR) INTEGER COMM, SIZE, IERROR MPI_COMM_RANK(COMM, RANK, IERROR) INTEGER COMM, RANK, IERROR

MPI 几个基本函数 退出 MPI 系统 C: int MPI_Finalize(void) Fortran 77: MPI_FINALIZE(IERROR) 每个进程都必须调用, 使用后不准许调用任何 MPI 函数 若不执行 MPI 退出函数, 进程可能被悬挂 用户在调用该函数前, 应确保非阻塞通讯结束

MPI 几个基本函数 异常终止 MPI 程序 C: int MPI_Abort(MPI_Comm comm, int errorcode) Fortran 77: MPI_ABORT(COMM, ERRORCODE, IERROR) INTEGER COMM, ERRORCODE, IERROR 在出现了致命错误而希望异常终止 MPI 程序时执行 MPI 系统会设法终止 comm 通信器中所有进程 输入整型参数 errorcode, 将被作为进程的退出码返回给系统

MPI 几个基本函数 获取处理器的名称 C: int MPI_Get_processor_name(char *name, int *resultlen) Fortran 77: MPI_GET_PROCESSOR_NAME(NAME, RESULTLEN, IERR) CHARACTER *(*) NAME INTEGER RESULTLEN, IERROR 在返回的 name 中存储所在处理器的名称 resultlen 存放返回名字所占字节 应提供参数 name 不少于 MPI_MAX_PRCESSOR_NAME 个字节的存储空间

MPI 几个基本函数 获取 MPI 版本号 C: int MPI_Get_version(int *version, int *subversion) Fortran 77: MPI_GET_VERSION(VERSION,SUBVERSION,IERR) INTEGER VERSION, SUBVERSION, IERROR 若 mpi 版本号为 2.0, 则返回的 version=2,subversion=0

MPI 几个基本函数 获取墙上时间 C: double MPI_Wtime(void) Fortran 77: DOUBLE PRECISION MPI_WTIME() 返回调用时刻的墙上时间, 用浮点数表示秒数 经常用来计算程序运行时间

Sample :Hello World - C C+MPI #include mpi.h #include <stdio.h> #include <math.h> void main(int argc, char *argv[ ]) { int myid, numprocs, namelen; char processor_name[mpi_max_processor_name]; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Get_processor_name(processor_name,&namelen); printf("hello World! Process %d of %d on %s\n",myid, numprocs, processor_name); MPI_Finalize(); }

Sample :Hello World - Fortran Fortran+MPI program main include 'mpif.h' character * (MPI_MAX_PROCESSOR_NAME) processor_name integer myid, numprocs, namelen, rc, ierr call MPI_INIT( ierr ) call MPI_COMM_RANK( MPI_COMM_WORLD, myid, ierr ) call MPI_COMM_SIZE( MPI_COMM_WORLD, numprocs, ierr ) call MPI_GET_PROCESSOR_NAME(processor_name, namelen, ierr) write(*,*) 'Hello World! Process ',myid,' of ',numprocs,' on ', processor_name call MPI_FINALIZE(ierr) end

Sample :Hello World 单处理器 (tp5) 运行 4 个进程 4 个处理器 (tp1,tp2,tp3,tp4) 分别运行 4 个进程

Sample :Hello World

点对点通信 定义 阻塞式点对点通信 编写安全的 MPI 程序 其他阻塞式点对点通信函数 阻塞式消息发送模式 非阻塞式点对点通信 持久通信

定义 communicator 1 2 5 destination 4 0 3 source 两个进程之间的通信 源进程发送消息到目标进程 目标进程接受消息 通信发生在同一个通信器内 进程通过其在通信器内的标号表示 MPI 系统的通信方式都建立在点对点通信之上

阻塞式点对点通信 Index MPI_Send MPI_Recv MPI_Get_count MPI_Sendrecv MPI_Sendrecv_replace

阻塞式点对点通信 阻塞式消息发送 C: int MPI_Send(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Fortran 77: MPI_SEND(BUF, COUNT, DATATYPE, DEST, TAG, COMM, IERROR) <type> BUF(*) INTEGER COUNT, DATATYPE, DEST, TAG, COMM, IERROR count 不是字节数, 而是指定数据类型的个数 datatype 可是原始数据类型, 或为用户自定义类型 dest 取值范围是 0~np-1, 或 MPI_PROC_NULL (np 是 comm 中的进程总数 ) tag 取值范围是 0~MPI_TAG_UB, 用来区分消息

阻塞式点对点通信 阻塞式消息接收 C: int MPI_Recv(void *buf, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status) Fortran 77: MPI_RECV(BUF, COUNT, DATATYPE, SOURCE, TAG, COMM, STATUS, IERROR) <type> INTEGER INTEGER BUF(*) COUNT, DATATYPE, DEST, TAG, COMM, IERROR STATUS(MPI_STATUS_SIZE) count 是接受缓存区的大小, 表示接受上界, 具体接受长度可用 MPI_Get_count 获得 source 取值范围是 0~np-1, 或 MPI_PROC_NULL 和 MPI_ANY_SOURCE tag 取值范围是 0~MPI_TAG_UB, 或 MPI_ANY_TAG

消息 (message) 阻塞式点对点通信

status 的内容 阻塞式点对点通信 C 中是一个数据结构为 MPI_status 的参数, 用户可以直接访问的三个域 ( 共 5 个域 ) Fortran 中是包含 MPI_STATUS_SIZE 个整型的数组 typedef struct {......int MPI_SOURCE; 消息源地址 int MPI_TAG; 消息标号 int MPI_ERROR;...... 接收操作的错误码 } MPI_Status; STATUS(MPI_SOURCE) STATUS(MPI_TAG) STATUS(MPI_ERROR) 使用前需要用户为其申请存储空间 (MPI_Status status;) C 中引用时为 status.mpi_source

查询接受到的消息长度 C: int MPI_Get_count(MPI_Status status, MPI_Datatype datatype, int *count) Fortran 77: 阻塞式点对点通信 MPI_GET_COUNT(STATUS, DATATYPE, COUNT, IERR) INTEGER DATATYPE, COUNT, IERR, STATUS(MPI_STATUS_SIZE) 该函数在 count 中返回数据类型的个数, 即消息的长度 count 属于 MPI_Status 结构的一个域, 但不能被用户直接访问

定义 标准阻塞式通信 是否对发送数据进行缓存, 由 MPI 系统决定, 而非程序员 阻塞 : 发送成功, 意味 (1) 消息成功发送 ;(2) 或者消息被缓存接收成功, 意味消息已被成功接收

消息传递成功 阻塞式点对点通信 发送进程需指定一个有效的目标接收进程 接收进程需指定一个有效的源发送进程 接收和发送消息的进程要在同一个通信器内 接收和发送消息的 tag 要相同 接收缓存区要足够大

阻塞式点对点通信 任意源进程 ( 接收操作可以接受任意进程的消息 ) MPI_ANY_SOURCE 任意标号 ( 接收操作可以接受任意标号的消息 ) MPI_ANY_TAG 真实的源进程与消息标号可以访问接受函数中的 status 参数获得

捆绑发送和接收 C: 其他阻塞式点对点通信函数 将一次发送调用和一次接收调用合并在一起, 执行无先后 发送缓冲区和接收缓冲区须分开 发送与接收使用同一个通信域 由捆绑发送接收调用发出的消息可被普通接收操作接收 ; 一个捆绑发送接收调用可以接受一个普通的发送操作所发送的消息 int MPI_Sendrecv(void *sendbuff,int sendcount,mpi_datatype sendtype,int dest,int sendtag,void *recvbuff,int recvcount, MPI_Datatype recvtype, int source, int recvtag, MPI_Comm comm, MPI_Status *status)

其他阻塞式点对点通信函数 捆绑发送和接收 Fortran 77: MPI_SENDRECV(SENDBUFF,SENDCOUNT,SENDTYPE,DEST,SENDTAG,RECVBUFF, RECVCOUNT, RECVTYPE, SOURCE, RECVTAG,COMM, STATUS, IERR) <type> SENDBUFF(*), RECVBUFF(*) INTEGER SENDCOUNT,SENDTYPE,DEST,SENDTAG,RECVCOUNT,RECVTYPE,SOURCE, RECVTAG,COMM,IERR INTEGER STATUS(MPI_STATUS_SIZE) 语义上等同于一个发送和一个接收操作结合, 但此函数可以有效避免在单独发送和接收操作过程中, 由于调用次序不当而造成的死锁 MPI 系统会优化通信次序, 从而最大限度避免错误发生

捆绑发送和接收, 收发使用同一缓存区 C: int MPI_Sendrecv_replace(void *buff,int count,mpi_datatype datatype, Fortran 77: int dest, int sendtag,int source, int recvtag,mpi_comm comm, MPI_Status *status) MPI_SENDRECV_REPLACE(BUFF,COUNT,DATATYPE,DEST,SENDTAG,SOURCE,RECVTAG, <type> BUFF(*) 其他阻塞式点对点通信函数 COMM, STATUS, IERR) INTEGER COUNT, DATATYPE, DEST, SENDTAG, SOURCE, RECVTAG, COMM, IERR INTEGER STATUS(MPI_STATUS_SIZE) MPI 系统保证其消息发出后再接收信息 MPI_Sendrecv 送收使用不同的缓存区 ; 该函数使用同一缓存区

Sample - Fortran MPI_SENDRECV 代替 MPI_SEND 和 MPI_RECV CALL MPI_COMM_RANK(comm, rank, ierr) IF(rank.EQ.0) THEN CALL MPI_SENDRECV(sendbuf, count, MPI_REAL, 1, tag, + recvbuf, count, MPI_REAL, 1, tag, comm, status, ierr) IF(rank.EQ.1) THEN CALL MPI_SENDRECV(sendbuf, count, MPI_REAL, 0, tag, + recvbuf, count, MPI_REAL, 0, tag, comm, status, ierr)

编写安全的 MPI 程序 Pro0 发送消息到 Pro1, 同时,Pro1 发送消息到 Pro0 A C B D 死锁

编写安全的 MPI 程序 A C B D 不安全

编写安全的 MPI 程序 A C D B 正确

阻塞式消息发送模式 按着发送方式和接收方状态要求的不同分类 四个函数拥有完全一样的入口参数 共用一个标准的消息接收函数

标准消息发送函数 (MPI_Send) 发送操作不管接收操作是否启动, 都可以开始 发送返回的条件 发送数据被 MPI 系统存入系统缓存, 此时不要求接收操作收到发送数据 不缓存, 则数据被接收到接收缓冲区

缓存消息发送函数 (MPI_Bsend) 发送操作不管接收操作是否启动, 都可以开始 直接对缓冲区进行控制, 用户直接对通信缓冲区进行申请 使用 释放 发送消息前必须有足够的缓冲区可用, 否则发送失败 缓存发送返回后, 不意味申请的缓存区可自由使用, 须等待消息发送出去方可使用 优势 : 发送操作在缓存了发送数据后, 可以立刻返回

缓存消息发送函数 (MPI_Bsend) 缓冲区申请提交 可调用 MPI_Type_size 来确定数据类型所占字节数 缓冲区大小 = 数据长度 + 常数, 常数用于 MPI 系统管理提交的缓冲区, 是必须的 同一时刻, 一个进程只能定义一个缓冲区 缓冲区释放 此函数为阻塞式调用, 等到该缓存消息发送后才释放返回

Sample - Fortran REAL * (*) BUF INTEGER SIZE, TOTALSIZE CALL MPI_TYPE_SIZE(MPI_REAL,SIZE,ierr) TOTALSIZE=count*SIZE + 2*MPI_BSEND_OVERHEAD! 必须如此 CALL MPI_BUFFER_ATTACH(BUF,TOTALSIZE,ierr) IF(rank.EQ.0) THEN CALL MPI_BSEND(sendbuf, count, MPI_REAL, 1, tag,comm,ierr) CALL MPI_RECV(recvbuf, count, MPI_REAL, 1, tag, comm, status, ierr) IF(rank.EQ.1) THEN CALL MPI_BSEND(sendbuf, count, MPI_REAL, 0, tag,comm,ierr) CALL MPI_RECV(recvbuf, count, MPI_REAL, 0, tag, comm, status, ierr)

同步消息发送函数 (MPI_Ssend) 同步通信模式的开始不依赖于接收进程相应的接收操作是否已经启动 发送返回条件, 需在标准模式上确认接收方已经开始接收数 优势 : 这种模式发送和接收最为安全

就绪消息发送函数 (MPI_Rsend) 发送操作必须要求接收操作启动, 才可以开始 启动接受操作, 意味着接收进程正等待接收发送的消息 若发送操作启动而相应接收操作没有启动, 发送操作将出错 优势 : 减少消息发送时间开销, 可能获得好的计算性能

非阻塞式点对点通信 阻塞式通信与非阻塞式通信 通信类型函数返回对数据区操作特性 阻塞式通信 1. 阻塞型函数需要等待指定操作完成返回 函数返回后, 对数据区操作是安全的 1. 程序设计相对简单 2. 或所涉及操作的数据 2. 使用不当容易 要被 MPI 系统缓存安全 造成死锁 备份后返回 非阻塞式通信 1. 调用后立刻返回, 实际操作在 MPI 后台执行 函数返回后, 即操作数据区不安全 1. 可以实现计算与通信的重叠 2. 需调用函数等待或查询操作的完成情况 可能与后台正进行的操作冲突 2. 程序设计相对复杂

非阻塞式点对点通信

非阻塞式点对点通信 Index MPI_Isend/MPI_Irecv MPI_Wait/MPI_Waitany/MPI_Waitall/MPI_Waitsome MPI_Test/MPI_Testany/MPI_Testall/MPI_Testsome MPI_Request_free MPI_Cancel MPI_Test_cancelled MPI_Probe/MPI_Iprobe

非阻塞式发送 非阻塞式点对点通信 该函数仅提交了一个消息发送请求, 并立即返回 MPI 系统会在后台完成消息发送 函数为该发送操作创建了一个请求, 通过 request 变量返回 request 可供之后 ( 查询和等待 ) 函数使用

非阻塞式接收 非阻塞式点对点通信 该函数仅提交了一个消息接收请求, 并立即返回 MPI 系统会在后台完成消息发送 函数为该接收操作创建了一个请求, 通过 request 变量返回 request 可供之后查询和等待函数使用

非阻塞式点对点通信 等待 检测一个通信请求的完成 MPI_Wait 阻塞等待通信函数完成后返回 ;MPI_Test 检测某通信, 不论其是否完成, 都立刻返回 如果通信完成, 则 flag=true 当等待或检测的通信完成时, 通信请求 request 被设置成 MPI_REQUEST_NULL 考察接收请求,status 返回与 MPI_Recv 一样 ; 发送请求, 则不确定 MPI_Test 返回时, 当 flag=false, status 不被赋值

Sample - Fortran IF(rank.EQ.0) THEN CALL MPI_ISEND(sendbuf, count, MPI_REAL, 1, tag,comm,request,ierr) CALL MPI_RECV(recvbuf, count, MPI_REAL, 1, tag, comm, status, ierr) CALL MPI_WAIT(request,status,ierr) IF(rank.EQ.1) THEN CALL MPI_ISEND(sendbuf, count, MPI_REAL, 0, tag,comm,request,ierr) CALL MPI_RECV(recvbuf, count, MPI_REAL, 0, tag, comm, status, ierr) CALL MPI_WAIT(request,status,ierr)

非阻塞式点对点通信 等待 检测一组通信请求中某一个的完成 count 表示通信请求的个数 array_of_requests 是一组非阻塞通信的请求 index 存储一个成功完成的通信在 array_of_requests 中的位置 flag 表示是否有任意一个通信请求完成, 若有 flag=true 完成的通信请求 request 被自动赋值 MPI_REQUEST_NULL MPI_Testany 返回时, 当 flag=false, status 不被赋值

非阻塞式点对点通信

非阻塞式点对点通信 等待 检测一组通信请求的全部完成 count 表示通信请求的个数 array_of_requests 是一组非阻塞通信的请求 array_of_statuses 返回该组通信完成的状态 flag 表示全部通信是否完成, 若完成 flag=true MPI_Testall 返回时, 当 flag=false, array_of_statuses 不被赋值

非阻塞式点对点通信

非阻塞式点对点通信 等待 检测一组通信请求的部分完成 MPI_Waitsome 等待至少一个通信完成才返回 outcount 表示通信成功完成的个数 array_of_indices 存储完成的通信在 array_of_requests 中的位置 array_of_statuses 返回完成通信的状态, 其他不被赋值 MPI_Testsome 返回时若没有一个通信完成, 则 outcount=0

非阻塞式点对点通信

非阻塞式点对点通信 通信请求的释放 ( 阻塞型 ) 调用 MPI_Wait/Test 可间接释放完成的通信请求, 此函数则直接释放通信请求及所占内存空间 如果通信尚未完成, 则阻塞等待完成后返回 该函数返回, 通信请求 request 被设置成 MPI_REQUEST_NULL

非阻塞式点对点通信 通信请求的取消 ( 非阻塞型 ) MPI_Cancel 取消已调用的非阻塞通信, 用此命令来释放非阻塞操作所占用的资源 命令调用后立刻返回, 但调用并不意味相应的通信被取消 该操作调用时, 若相应非阻塞通信已经开始, 它会正常完成, 不受影响 ; 若没有开始, 则释放通信占用资源, 该通信被取消 即使调用取消操作, 也需等待 查询函数来释放该非阻塞通信的请求, 并且在返回结果 status 中指明该通信已经被取消

非阻塞式点对点通信 检测一个通信操作是否被取消 ( 非阻塞型 ) 函数调用后立即返回 如果一个非阻塞通信已经被执行了取消操作, 则该通信的 MPI_Wait 和 MPI_Test 将释放相应的通信对象, 并且在返回结果 status 中指明该通信是否被取消 如果 MPI_Test_cancelled 返回结果 flag=true, 则表明此通信已经被成功取消, 否则该通信还没有被取消

消息探测 ( 阻塞型 ) 非阻塞式点对点通信 为接收消息前即可对接收消息进行探测, 进而决定如何接收该消息 阻塞等待, 只有当探测到符合 source/tag 条件的消息时才返回 返回的 status 与 MPI_Recv 的 status 完全相同 source/tag 可以取 MPI_ANY_SOURCE/MPI_ANY_TAG

消息探测 ( 非阻塞型 ) 非阻塞式点对点通信 函数调用后即返回 当探测到符合 source/tag 条件的消息时,flag=true; 若 flag=true, 返回的 status 与 MPI_Recv 的 status 完全相同 ; 若 flag=false, 则对 status 不作定义 source/tag 可以取 MPI_ANY_SOURCE/MPI_ANY_TAG

阻塞型与非阻塞型通信函数

持久通信 持久通信 通信初始化没有启动消息操作,MPI_Start 触发才开始真正通信 调用消息完成操作 MPI_Wait, 并不释放持久通信对象, 只是将其设置为非活动状态 当不需要再进行重复通信时, 必须用 MPI_Request_free 释放对象, 这是和普通非阻塞通信不同之处

创建持久消息发送请求 持久通信 创建持久消息发送请求, 但并非开始实际的消息发送,request 请求留待以后实际消息发送使用 其对应标准模式的非阻塞发送,MPI_Bsend_init/MPI_Ssend_init/ MPI_Rsend_init 分别对应缓冲 / 同步 / 就绪模式的持久消息发送请求函数, 不作重点说明

创建持久消息接收请求 持久通信 创建持久消息接收请求, 但并非开始实际的消息接收,request 请求留待以后实际消息接收使用

持久通信 开始基于持久通信请求的通信 每次调用 MPI_Start 相当于调用一次 MPI_***_init 相对应的非阻塞型通信函数 ( 如 MPI_Isend,MPI_Irecv 等 ) 当创建了多个持久通信请求时, 可用一个 MPI_Startall 来一次性启动多个通信 由上述函数调用开始的通信请求也要用 MPI_Wait/Test 函数来等待 检测完成 这些调用完成后, 持久通信对象并不释放, 等待激活