博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
大文件重定向和管道的效率对比
阅读量:4159 次
发布时间:2019-05-26

本文共 4930 字,大约阅读时间需要 16 分钟。

from: 

原创文章,转载请注明: 转载自

本文链接地址: 

微博上的@拉风_zhang提出了个问题:

@淘宝褚霸 请教个问题,#1. cat huge_dump.sql | mysql -uroot ;#2. mysql -uroot < huge_dump.sql ;#1效率要高,在linux中通过管道传输 和 < 这种方式有什么差别呢?谢谢!#AskBaye#

这个问题挺有意思的,我的第一反应是:

没比较过,应该是一样的,一个是cat负责打开文件,一个是bash

这种场景在MySQL运维操作里面应该比较多,所以就花了点时间做了个比较和原理上的分析:

我们先构造场景:
首先准备一个程序b.out来模拟mysql对数据的消耗:

cat b.c
#include <stdio.h>
int main(int argc, char *argv[])
{
  char buf[4096];
  while(fread(buf, sizeof(buf), 1, stdin) > 0);
  return 0;
}
$  gcc  -o b.out b.c
ls|./b.out

编译好再顺手我们的程序功能是正确的:纯消耗流。

再来写个systemtap脚本用来方便观察程序的行为。

cat test.stp
function should_log(){
  return (execname() == "cat" ||
      execname() == "b.out" ||
      execname() == "bash") ;
}
probe syscall.open,
      syscall.close,
      syscall.read,
      syscall.write,
      syscall.pipe,
      syscall.fork,
      syscall.execve,
      syscall.dup,
      syscall.wait4
{
  if (!should_log()) next;
  printf("%s -> %s\n", thread_indent(0), probefunc());
}
probe kernel.function("pipe_read"),
      kernel.function("pipe_readv"),
      kernel.function("pipe_write"),
      kernel.function("pipe_writev")
{
  if (!should_log()) next;
  printf("%s -> %s: file ino %d\n",  thread_indent(0), probefunc(), __file_ino($filp));
}
probe begin { println(":~") }

这个脚本重点观察几个系统调用的顺序和pipe的读写情况,

然后再准备个419M的大文件huge_dump.sql,在我们几十G内存的机器很容易在内存里放下:

sudo dd if=/dev/urandom of=huge_dump.sql bs=4096 count=102400
102400+0 records in
102400+0 records out
419430400 bytes (419 MB) copied, 63.9886 seconds, 6.6 MB/s

因为这个文件是用bufferio写的,所以它的内容都cache在pagecahce内存里面,不会涉及到磁盘。

好了,场景齐全了,我们接着来比较下二种情况下的速度:

time (cat huge_dump.sql|./b.out)
real    0m0.596s
user    0m0.001s
sys     0m0.919s
time (./b.out <huge_dump.sql)
real    0m0.151s
user    0m0.000s
sys     0m0.147s

从数字看出来速度有3倍左右的差别了,第二种明显快很多。

是不是有点奇怪?好吧我们来从原来上面分析下,还是继续用数据说话:

这次准备个很小的数据文件,方便观察然后在一个窗口运行stap

echo hello > huge_dump.sql
sudo stap test.stp
:~
     bash(26570): -> sys_read
     bash(26570): -> sys_read
     bash(26570): -> sys_write
     bash(26570): -> sys_read
     bash(26570): -> sys_write
     bash(26570): -> sys_close
     bash(26570): -> sys_pipe
     bash(26570): -> sys_pipe
     bash(26570): -> do_fork
     bash(26570): -> sys_close
     bash(26570): -> sys_close
     bash(26570): -> do_fork
     bash(13775): -> sys_close
     bash(13775): -> sys_read
     bash(13775): -> pipe_read: file ino 20906911
     bash(13775): -> pipe_readv: file ino 20906911
     bash(13776): -> sys_close
     bash(13776): -> sys_close
     bash(13776): -> sys_close
     bash(13776): -> do_execve
     bash(26570): -> sys_close
     bash(26570): -> sys_close
     bash(26570): -> sys_close
     bash(13775): -> sys_close
     bash(26570): -> sys_wait4
     bash(13775): -> sys_close
     bash(13775): -> sys_close
     0 b.out(13776): -> sys_close
     0 b.out(13776): -> sys_close
     bash(13775): -> do_execve
     0 b.out(13776): -> sys_open
     0 b.out(13776): -> sys_close
     0 b.out(13776): -> sys_open
     0 b.out(13776): -> sys_read
     0 b.out(13776): -> sys_close
     cat(13775): -> sys_close
     cat(13775): -> sys_close
     0 b.out(13776): -> sys_read
     0 b.out(13776): -> pipe_read: file ino 20906910
     0 b.out(13776): -> pipe_readv: file ino 20906910
     cat(13775): -> sys_open
     cat(13775): -> sys_close
     cat(13775): -> sys_open
     cat(13775): -> sys_read
     cat(13775): -> sys_close
     cat(13775): -> sys_open
     cat(13775): -> sys_close
     cat(13775): -> sys_open
     cat(13775): -> sys_read
     cat(13775): -> sys_write
     cat(13775): -> pipe_write: file ino 20906910
     cat(13775): -> pipe_writev: file ino 20906910
     cat(13775): -> sys_read
     0 b.out(13776): -> sys_read
     0 b.out(13776): -> pipe_read: file ino 20906910
     0 b.out(13776): -> pipe_readv: file ino 20906910
     cat(13775): -> sys_close
     cat(13775): -> sys_close
     bash(26570): -> sys_wait4
     bash(26570): -> sys_close
     bash(26570): -> sys_wait4
     bash(26570): -> sys_write

stap在收集数据了,我们在另外一个窗口运行情况1管道的情况:

cat huge_dump.sql|./b.out

我们从systemtap的日志可以看出: bash fork了2个进程,然后execve分别运行cat 和 b.out进程, 这二个进程用pipe通信,数据从由cat从 huge_dump.sql读出,写到pipe,然后b.out从pipe读出处理。

那么再看下情况二重定向的情况:

$ ./b.out < huge_dump.sql
stap输出:
      bash(26570): -> sys_read
     bash(26570): -> sys_read
     bash(26570): -> sys_write
     bash(26570): -> sys_read
     bash(26570): -> sys_write
     bash(26570): -> sys_close
     bash(26570): -> sys_pipe
     bash(26570): -> do_fork
     bash(28926): -> sys_close
     bash(28926): -> sys_read
     bash(28926): -> pipe_read: file ino 20920902
     bash(28926): -> pipe_readv: file ino 20920902
     bash(26570): -> sys_close
     bash(26570): -> sys_close
     bash(26570): -> sys_wait4
     bash(28926): -> sys_close
     bash(28926): -> sys_open
     bash(28926): -> sys_close
     bash(28926): -> do_execve
     0 b.out(28926): -> sys_close
     0 b.out(28926): -> sys_close
     0 b.out(28926): -> sys_open
     0 b.out(28926): -> sys_close
     0 b.out(28926): -> sys_open
     0 b.out(28926): -> sys_read
     0 b.out(28926): -> sys_close
     0 b.out(28926): -> sys_read
     0 b.out(28926): -> sys_read
     bash(26570): -> sys_wait4
     bash(26570): -> sys_write
     bash(26570): -> sys_read

bash fork了一个进程,打开数据文件,然后把文件句柄搞到0句柄上,这个进程execve运行b.out,然后b.out直接读取数据。

现在就非常清楚为什么二种场景速度有3倍的差别:
情况1. 读二次,写一次,外加一个进程上下文切换。
情况二:只读一次。

小结: 越简单的事情,有时候越有意思!

祝玩得开心!

你可能感兴趣的文章
C++中异常的处理方法以及使用了哪些关键字
查看>>
内存分配的形式有哪些? C++
查看>>
什么是内存泄露,如何避免内存泄露 C++
查看>>
栈和堆的空间大小 C++
查看>>
什么是缓冲区溢出 C++
查看>>
sizeof C++
查看>>
使用指针有哪些好处? C++
查看>>
引用还是指针?
查看>>
checkio-non unique elements
查看>>
checkio-medium
查看>>
checkio-house password
查看>>
checkio-moore neighbourhood
查看>>
checkio-the most wanted letter
查看>>
Redis可视化工具
查看>>
大牛手把手带你!2021新一波程序员跳槽季,全套教学资料
查看>>
Guava Collections API学习之AbstractMapBasedMultimap
查看>>
jQuery1.9(动画效果)学习之——.queue()
查看>>
HTML5学习之——概念篇
查看>>
HTML5学习之——HTML 5 视频
查看>>
HTML5学习之——HTML 5 Video + DOM
查看>>