迅速在两个含有大量数据的文件中寻找相同的数据 求解问题如下 : 在本地磁盘里面有 file1 和 file2 两个文件, 每一个文件包含 500 万条随机整数 ( 可以重复 ), 最大不超过 2147483648 也就是一个 int 表示范围 要求写程序将两个文件中都含有的整数输出到一个新文件中 要求 : 1. 程序的运行时间不超过 5 秒钟 2. 没有内存泄漏 3. 代码规范, 能要考虑到出错情况 4. 代码具有高度可重用性及可扩展性, 以后将要在该作业基础上更改需求 初一看, 觉得很简单, 不就是求两个文件的并集嘛, 于是很快写出了下面的代码 #include<iostream> #include<vector> #include<cstdlib> #include<algorithm> #include<fstream> using namespace std; void merge(const vector<int> &, const vector<int>&, vector<int> &); // Author: 397090770 // Email: wyphao.2007@163.com // blog: https://www.iteblog.com // 仅用于学习交流, 转载请务必留下这些注释 int main(){ vector<int> v1, v2; vector<int> result; char buf[512]; FILE *fp; fp = fopen("file1", "r"); if(fp < 0){ cout<<"open file failed!\n"; while(fgets(buf, 512, fp)!= NULL){ v1.push_back(atoi(buf)); 1 / 9
sort(v1.begin(), v1.end()); fclose(fp); fp = fopen("file2", "r"); if(fp < 0){ cout<<"open file2 failed!\n"; while(fgets(buf, 512, fp)!= NULL){ v2.push_back(atoi(buf)); sort(v2.begin(), v2.end()); cout<<v1[v1.size() - 1]<<endl; cout<<v2[v2.size() - 1]<<endl; fclose(fp); merge(v1, v2, result); cout<<result.size(); ofstream output; output.open("result"); if(output.fail()){ cerr<<"crete file failed!\n"; vector<int>::const_iterator p = result.begin(); for(; p!= result.end(); p++){ output<<*p<<endl; output.close(); return 0; void merge(const vector<int>& v1, const vector<int>& v2, vector<int> &result){ vector<int>::const_iterator p1, p2; p1 = v1.begin(); p2 = v2.begin(); while((p1!= v1.end()) && p2!= v2.end()){ if(*p1 < *p2){ p1++; else if(*p1 > *p2){ p2++; else{ 2 / 9
result.push_back(*p1); p1++; p2++; 编译运行 : 一看, 不行, 不满足上面的 5 秒之内, 于是又想了很久, 上面不是显示 sys 调用花了很长时间嘛, 于是有写了一个程序, 用快速排序 + 二分查找法实现, 代码如下 : #include <iostream> #include <fstream> #include <vector> #include <cstdlib> #include <cstdio> #define MAXLINE 32 using namespace std; void qsort(vector<int>&, int, int); int partition(vector<int>&, int, int); bool binarysearch(const vector<int>&, int); // Author: 397090770 // Email: wyphao.2007@163.com // blog: https://www.iteblog.com // 仅用于学习交流, 转载请务必留下这些注释 int main(){ vector<int> v1, result; int temp; char buf[maxline]; FILE *fd; 3 / 9
fd = fopen("file1", "r"); if(fd == NULL){ cerr<<"open file1 failed!\n"; while(fgets(buf, MAXLINE, fd)!= NULL){ v1.push_back(atoi(buf)); fclose(fd); //cout<<v1.size()<<endl; qsort(v1, 0, v1.size() - 1); /*vector<int>::const_iterator p = v1.begin(); for(; p!= v1.end(); p++){ cout<<*p<<endl; sleep(1); */ fd = fopen("file2", "r"); if(fd == NULL){ cerr<<"open file2 failed!\n"; while(fgets(buf, MAXLINE, fd)!= NULL){ temp = atoi(buf); if(binarysearch(v1, temp)){ result.push_back(temp); cout<<result.size(); return 0; void qsort(vector<int> &v, int low, int hight){ if(low < hight){ int mid = partition(v, low, hight); qsort(v, low, mid - 1); qsort(v, mid + 1, hight); int partition(vector<int> &v, int min, int max){ 4 / 9
int temp = v[min]; while(min < max){ while(min < max && v[max] >= temp) max--; v[min] = v[max]; while(min < max && v[min] <= temp) min++; v[max] = v[min]; v[min] = temp; return min; bool binarysearch(const vector<int> &v, int key){ int low, hight, mid; low = 0; hight = v.size() - 1; while(low <= hight){ mid = (low + hight) /2; if(v[mid] == key){ return true; else if(v[mid] < key){ low = mid + 1; else{ hight = mid - 1; return false; 正乐着呢, 编译运行 : 结果发现,user 时间是 2.194 秒, 整个时间还要比以前长, 显然这种方法还是不行, 原因就是两个文件太大了,500 万条, 不是一般小, 且上面花的时间主要用在排序上面去了, 于是就想, 能不 5 / 9
能不用排序完成? 这时有个朋友和我说了一下位图法, 灵感一来, 自己又去改写了代码 : #include <iostream> #include <cstdlib> #include <cstdio> #include <cstring> #include <fstream> #include <string> #include <vector> #include <algorithm> #include <iterator> #define SHIFT 5 #define MAXLINE 32 #define MASK 0x1F using namespace std; // Author: 397090770 // Email: wyphao.2007@163.com // blog: https://www.iteblog.com // 仅用于学习交流, 转载请务必留下这些注释 void setbit(int *bitmap, int i){ bitmap[i >> SHIFT] = (1 << (i & MASK)); bool getbit(int *bitmap1, int i){ return bitmap1[i >> SHIFT] & (1 << (i & MASK)); size_t getfilesize(ifstream &in, size_t &size){ in.seekg(0, ios::end); size = in.tellg(); in.seekg(0, ios::beg); return size; char * fillbuf(const char *filename){ size_t size = 0; ifstream in(filename); if(in.fail()){ cerr<< "open " << filename << " failed!" << endl; getfilesize(in, size); 6 / 9
char *buf = (char *)malloc(sizeof(char) * size + 1); if(buf == NULL){ cerr << "malloc buf error!" << endl; in.read(buf, size); in.close(); buf[size] = ' '; return buf; void setbitmask(const char *filename, int *bit){ char *buf, *temp; temp = buf = fillbuf(filename); char *p = new char[11]; int len = 0; while(*temp){ if(*temp == '\n'){ p[len] = ' '; len = 0; //cout<<p<<endl; setbit(bit, atoi(p)); else{ p[len++] = *temp; temp++; delete buf; void comparebit(const char *filename, int *bit, vector<int> &result){ char *buf, *temp; temp = buf = fillbuf(filename); char *p = new char[11]; int len = 0; while(*temp){ if(*temp == '\n'){ p[len] = ' '; len = 0; if(getbit(bit, atoi(p))){ result.push_back(atoi(p)); else{ p[len++] = *temp; temp++; 7 / 9
delete buf; int main(){ vector<int> result; unsigned int MAX = (unsigned int)(1 << 31); unsigned int size = MAX >> 5; int *bit1; bit1 = (int *)malloc(sizeof(int) * (size + 1)); if(bit1 == NULL){ cerr<<"malloc bit1 error!"<<endl; memset(bit1, 0, size + 1); setbitmask("file1", bit1); comparebit("file2", bit1, result); delete bit1; cout<<result.size(); sort(result.begin(), result.end()); vector< int >::iterator it = unique(result.begin(), result.end()); ofstream of("result"); ostream_iterator<int> output(of, "\n"); copy(result.begin(), it, output); return 0; 这是利用位图法实现的程序, 编译运行 运行时间明显比前两个少, 但是这个程序是以空间换取时间, 程序运行的时候分配了几百兆的空间 可见在程序设计中, 方法很重要 什么情况选用什么方法 但是还是觉得前面两个方法还行, 因为需要的空间比较少 ( 转载请注明 :https://www.iteblog.com/archives/158, 请不要用于商业目的 ) 8 / 9
Powered by TCPDF (www.tcpdf.org) 迅速在两个含有大量数据的文件中寻找相同的数据 本博客文章除特别声明, 全部都是原创! 禁止个人和公司转载本文 谢谢理解 : 过往记忆 (https://www.iteblog.com/) 本文链接 : () 9 / 9