<返回更多

支撑百万并发的“零拷贝”技术,你了解吗?

2019-09-25    
加入收藏

拷贝(Zero-copy)技术指在计算机执行操作时,CPU 不需要先将数据从一个内存区域复制到另一个内存区域,从而可以减少上下文切换以及 CPU 的拷贝时间。

它的作用是在数据报从网络设备到用户程序空间传递的过程中,减少数据拷贝次数,减少系统调用,实现 CPU 的零参与,彻底消除 CPU 在这方面的负载。

实现零拷贝用到的最主要技术是 DMA 数据传输技术和内存区域映射技术:

物理内存和虚拟内存

由于操作系统的进程与进程之间是共享 CPU 和内存资源的,因此需要一套完善的内存管理机制防止进程之间内存泄漏的问题。

为了更加有效地管理内存并减少出错,现代操作系统提供了一种对主存的抽象概念,即虚拟内存(Virtual Memory)。

虚拟内存为每个进程提供了一个一致的、私有的地址空间,它让每个进程产生了一种自己在独享主存的错觉(每个进程拥有一片连续完整的内存空间)。

物理内存

物理内存(Physical Memory)是相对于虚拟内存(Virtual Memory)而言的。

物理内存指通过物理内存条而获得的内存空间,而虚拟内存则是指将硬盘的一块区域划分来作为内存。内存主要作用是在计算机运行时为操作系统和各种程序提供临时储存。

在应用中,自然是顾名思义,物理上,真实存在的插在主板内存槽上的内存条的容量的大小。

虚拟内存

虚拟内存是计算机系统内存管理的一种技术。它使得应用程序认为它拥有连续的可用的内存(一个连续完整的地址空间)。

而实际上,虚拟内存通常是被分隔成多个物理内存碎片,还有部分暂时存储在外部磁盘存储器上,在需要时进行数据交换,加载到物理内存中来。

目前,大多数操作系统都使用了虚拟内存,如 windows 系统的虚拟内存、linux 系统的交换空间等等。

虚拟内存地址和用户进程紧密相关,一般来说不同进程里的同一个虚拟地址指向的物理地址是不一样的,所以离开进程谈虚拟内存没有任何意义。每个进程所能使用的虚拟地址大小和 CPU 位数有关。

在 32 位的系统上,虚拟地址空间大小是 2^32=4G,在 64 位系统上,虚拟地址空间大小是 2^64=16G,而实际的物理内存可能远远小于虚拟内存的大小。

每个用户进程维护了一个单独的页表(Page Table),虚拟内存和物理内存就是通过这个页表实现地址空间的映射的。

下面给出两个进程 A、B 各自的虚拟内存空间以及对应的物理内存之间的地址映射示意图:

 

支撑百万并发的“零拷贝”技术,你了解吗?

 

 

当进程执行一个程序时,需要先从内存中读取该进程的指令,然后执行,获取指令时用到的就是虚拟地址。

这个虚拟地址是程序链接时确定的(内核加载并初始化进程时会调整动态库的地址范围)。

为了获取到实际的数据,CPU 需要将虚拟地址转换成物理地址,CPU 转换地址时需要用到进程的页表(Page Table),而页表(Page Table)里面的数据由操作系统维护。

其中页表(Page Table)可以简单的理解为单个内存映射(Memory MApping)的链表(当然实际结构很复杂)。

里面的每个内存映射(Memory Mapping)都将一块虚拟地址映射到一个特定的地址空间(物理内存或者磁盘存储空间)。

每个进程拥有自己的页表(Page Table),和其他进程的页表(Page Table)没有关系。

通过上面的介绍,我们可以简单的将用户进程申请并访问物理内存(或磁盘存储空间)的过程总结如下:

在用户进程和物理内存(磁盘存储器)之间引入虚拟内存主要有以下的优点:

这样可以做到物理内存延时分配,只有在需要读相应的文件的时候,才将它真正的从磁盘上加载到内存中来,而在内存吃紧的时候又可以将这部分内存清空掉,提高物理内存利用效率,并且所有这些对应用程序都是透明的。

进程间的内存共享也可以通过映射同一块物理内存到进程的不同虚拟地址空间来实现共享。

内核空间和用户空间

操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的权限。

为了避免用户进程直接操作内核,保证内核安全,操作系统将虚拟内存划分为两部分,一部分是内核空间(Kernel-space),一部分是用户空间(User-space)。

在 Linux 系统中,内核模块运行在内核空间,对应的进程处于内核态;而用户程序运行在用户空间,对应的进程处于用户态。

内核进程和用户进程所占的虚拟内存比例是 1:3,而 Linux x86_32 系统的寻址空间(虚拟存储空间)为 4G(2 的 32 次方),将最高的 1G 的字节(从虚拟地址 0xC0000000 到 0xFFFFFFFF)供内核进程使用,称为内核空间。

而较低的 3G 的字节(从虚拟地址 0x00000000 到 0xBFFFFFFF),供各个用户进程使用,称为用户空间。

下图是一个进程的用户空间和内核空间的内存布局:

 

支撑百万并发的“零拷贝”技术,你了解吗?

 

 

内核空间

内核空间总是驻留在内存中,它是为操作系统的内核保留的。应用程序是不允许直接在该区域进行读写或直接调用内核代码定义的函数的。

上图左侧区域为内核进程对应的虚拟内存,按访问权限可以分为进程私有和进程共享两块区域:

用户空间

每个普通的用户进程都有一个单独的用户空间,处于用户态的进程不能访问内核空间中的数据,也不能直接调用内核函数的 ,因此要进行系统调用的时候,就要将进程切换到内核态才行。

用户空间包括以下几个内存区域:

栈区是从高地址位向低地址位增长的,是一块连续的内在区域,最大容量是由系统预先定义好的,申请的栈空间超过这个界限时会提示溢出,用户能从栈中获取的空间较小。

频繁地 malloc/free 造成内存空间的不连续,产生大量碎片。当申请堆空间时,库函数按照一定的算法搜索可用的足够大的空间。因此堆的效率比栈要低的多。

Linux 的内部层级结构

内核态可以执行任意命令,调用系统的一切资源,而用户态只能执行简单的运算,不能直接调用系统资源。用户态必须通过系统接口(System Call),才能向内核发出指令。

 

 

比如,当用户进程启动一个 bash 时,它会通过 getpid() 对内核的 pid 服务发起系统调用,获取当前用户进程的 ID。

当用户进程通过 cat 命令查看主机配置时,它会对内核的文件子系统发起系统调用:

x86_64 CPU 用户空间地址范围为0x0000000000000000–0x00007fffffffffff,内核地址空间为 0xffff880000000000-最大地址。

有了用户空间和内核空间的划分后,Linux 内部层级结构可以分为三部分,从最底层到最上层依次是硬件、内核空间和用户空间,如下图所示:

 

支撑百万并发的“零拷贝”技术,你了解吗?

 

 

Linux I/O 读写方式

Linux 提供了轮询、I/O 中断以及 DMA 传输这 3 种磁盘与主存之间的数据传输机制。其中轮询方式是基于死循环对 I/O 端口进行不断检测。

I/O 中断方式是指当数据到达时,磁盘主动向 CPU 发起中断请求,由 CPU 自身负责数据的传输过程。

DMA 传输则在 I/O 中断的基础上引入了 DMA 磁盘控制器,由 DMA 磁盘控制器负责数据的传输,降低了 I/O 中断操作对 CPU 资源的大量消耗。

I/O 中断原理

在 DMA 技术出现之前,应用程序与磁盘之间的 I/O 操作都是通过 CPU 的中断完成的。

 

 

每次用户进程读取磁盘数据时,都需要 CPU 中断,然后发起 I/O 请求等待数据读取和拷贝完成,每次的 I/O 中断都导致 CPU 的上下文切换:

DMA 传输原理

DMA 的全称叫直接内存存取(Direct Memory Access),是一种允许外围设备(硬件子系统)直接访问系统主内存的机制。

也就是说,基于 DMA 访问方式,系统主内存于硬盘或网卡之间的数据传输可以绕开 CPU 的全程调度。

目前大多数的硬件设备,包括磁盘控制器、网卡、显卡以及声卡等都支持 DMA 技术。

 

 

整个数据传输操作在一个 DMA 控制器的控制下进行的。CPU 除了在数据传输开始和结束时做一点处理外(开始和结束时候要做中断处理),在传输过程中 CPU 可以继续进行其他的工作。

这样在大部分时间里,CPU 计算和 I/O 操作都处于并行操作,使整个计算机系统的效率大大提高。

 

 

有了 DMA 磁盘控制器接管数据读写请求以后,CPU 从繁重的 I/O 操作中解脱,数据读取操作的流程如下:

传统 I/O 方式

为了更好的理解零拷贝解决的问题,我们首先了解一下传统 I/O 方式存在的问题。

在 Linux 系统中,传统的访问方式是通过 write() 和 read() 两个系统调用实现的,通过 read() 函数读取文件到到缓存区中,然后通过 write() 方法把缓存中的数据输出到网络端口。

伪代码如下:

  1. read(file_fd, tmp_buf, len);
  2. write(socket_fd, tmp_buf, len);

下图分别对应传统 I/O 操作的数据读写流程,整个过程涉及 2 次 CPU 拷贝、2 次 DMA 拷贝,总共 4 次拷贝,以及 4 次上下文切换。

 

 

下面简单地阐述一下相关的概念:

传统读操作

当应用程序执行 read 系统调用读取一块数据的时候,如果这块数据已经存在于用户进程的页内存中,就直接从内存中读取数据。

如果数据不存在,则先将数据从磁盘加载数据到内核空间的读缓存(read buffer)中,再从读缓存拷贝到用户进程的页内存中。

  1. read(file_fd, tmp_buf, len);

基于传统的 I/O 读取方式,read 系统调用会触发 2 次上下文切换,1 次 DMA 拷贝和 1 次 CPU 拷贝。

发起数据读取的流程如下:

传统写操作

当应用程序准备好数据,执行 write 系统调用发送网络数据时,先将数据从用户空间的页缓存拷贝到内核空间的网络缓冲区(socket buffer)中,然后再将写缓存中的数据拷贝到网卡设备完成数据发送。

  1. write(socket_fd, tmp_buf, len);

基于传统的 I/O 写入方式,write() 系统调用会触发 2 次上下文切换,1 次 CPU 拷贝和 1 次 DMA 拷贝。

用户程序发送网络数据的流程如下:

零拷贝方式

在 Linux 中零拷贝技术主要有 3 个实现思路:

这种方式依旧存在用户空间和内核空间的上下文切换,硬件上的数据直接拷贝至了用户空间,不经过内核空间。因此,直接 I/O 不存在内核空间缓冲区和用户空间缓冲区之间的数据拷贝。

用户态直接 I/O

用户态直接 I/O 使得应用进程或运行在用户态(user space)下的库函数直接访问硬件设备。

数据直接跨过内核进行传输,内核在数据传输过程除了进行必要的虚拟存储配置工作之外,不参与任何其他工作,这种方式能够直接绕过内核,极大提高了性能。

 

 

用户态直接 I/O 只能适用于不需要内核缓冲区处理的应用程序,这些应用程序通常在进程地址空间有自己的数据缓存机制,称为自缓存应用程序,如数据库管理系统就是一个代表。

其次,这种零拷贝机制会直接操作磁盘 I/O,由于 CPU 和磁盘 I/O 之间的执行时间差距,会造成大量资源的浪费,解决方案是配合异步 I/O 使用。

mmap+write

一种零拷贝方式是使用 mmap+write 代替原来的 read+write 方式,减少了 1 次 CPU 拷贝操作。

mmap 是 Linux 提供的一种内存映射文件方法,即将一个进程的地址空间中的一段虚拟地址映射到磁盘文件地址,mmap+write 的伪代码如下:

  1. tmp_buf = mmap(file_fd, len);
  2. write(socket_fd, tmp_buf, len);

使用 mmap 的目的是将内核中读缓冲区(read buffer)的地址与用户空间的缓冲区(user buffer)进行映射。

从而实现内核缓冲区与应用程序内存的共享,省去了将数据从内核读缓冲区(read buffer)拷贝到用户缓冲区(user buffer)的过程。

然而内核读缓冲区(read buffer)仍需将数据拷贝到内核写缓冲区(socket buffer),大致的流程如下图所示:

 

 

基于 mmap+write 系统调用的零拷贝方式,整个拷贝过程会发生 4 次上下文切换,1 次 CPU 拷贝和 2 次 DMA 拷贝。

用户程序读写数据的流程如下:

mmap 主要的用处是提高 I/O 性能,特别是针对大文件。对于小文件,内存映射文件反而会导致碎片空间的浪费。

因为内存映射总是要对齐页边界,最小单位是 4 KB,一个 5 KB 的文件将会映射占用 8 KB 内存,也就会浪费 3 KB 内存。

mmap 的拷贝虽然减少了 1 次拷贝,提升了效率,但也存在一些隐藏的问题。

当 mmap 一个文件时,如果这个文件被另一个进程所截获,那么 write 系统调用会因为访问非法地址被 SIGBUS 信号终止,SIGBUS 默认会杀死进程并产生一个 coredump,服务器可能因此被终止。

Sendfile

Sendfile 系统调用在 Linux 内核版本 2.1 中被引入,目的是简化通过网络在两个通道之间进行的数据传输过程。

Sendfile 系统调用的引入,不仅减少了 CPU 拷贝的次数,还减少了上下文切换的次数,它的伪代码如下:

  1. sendfile(socket_fd, file_fd, len);

通过 Sendfile 系统调用,数据可以直接在内核空间内部进行 I/O 传输,从而省去了数据在用户空间和内核空间之间的来回拷贝。

与 mmap 内存映射方式不同的是, Sendfile 调用中 I/O 数据对用户空间是完全不可见的。也就是说,这是一次完全意义上的数据传输过程。

基于 Sendfile 系统调用的零拷贝方式,整个拷贝过程会发生 2 次上下文切换,1 次 CPU 拷贝和 2 次 DMA 拷贝。

用户程序读写数据的流程如下:

相比较于 mmap 内存映射的方式,Sendfile 少了 2 次上下文切换,但是仍然有 1 次 CPU 拷贝操作。

Sendfile 存在的问题是用户程序不能对数据进行修改,而只是单纯地完成了一次数据传输过程。

Sendfile+DMA gather copy

Linux 2.4 版本的内核对 Sendfile 系统调用进行修改,为 DMA 拷贝引入了 gather 操作。

它将内核空间(kernel space)的读缓冲区(read buffer)中对应的数据描述信息(内存地址、地址偏移量)记录到相应的网络缓冲区( socket buffer)中,由 DMA 根据内存地址、地址偏移量将数据批量地从读缓冲区(read buffer)拷贝到网卡设备中。

这样就省去了内核空间中仅剩的 1 次 CPU 拷贝操作,Sendfile 的伪代码如下:

  1. sendfile(socket_fd, file_fd, len);

在硬件的支持下,Sendfile 拷贝方式不再从内核缓冲区的数据拷贝到 socket 缓冲区,取而代之的仅仅是缓冲区文件描述符和数据长度的拷贝。

这样 DMA 引擎直接利用 gather 操作将页缓存中数据打包发送到网络中即可,本质就是和虚拟内存映射的思路类似。

 

 

基于 Sendfile+DMA gather copy 系统调用的零拷贝方式,整个拷贝过程会发生 2 次上下文切换、0 次 CPU 拷贝以及 2 次 DMA 拷贝。

用户程序读写数据的流程如下:

Sendfile+DMA gather copy 拷贝方式同样存在用户程序不能对数据进行修改的问题,而且本身需要硬件的支持,它只适用于将数据从文件拷贝到 socket 套接字上的传输过程。

Splice

Sendfile 只适用于将数据从文件拷贝到 socket 套接字上,同时需要硬件的支持,这也限定了它的使用范围。

Linux 在 2.6.17 版本引入 Splice 系统调用,不仅不需要硬件支持,还实现了两个文件描述符之间的数据零拷贝。

Splice 的伪代码如下:

  1. splice(fd_in, off_in, fd_out, off_out, len, flags);

Splice 系统调用可以在内核空间的读缓冲区(read buffer)和网络缓冲区(socket buffer)之间建立管道(pipeline),从而避免了两者之间的 CPU 拷贝操作。

 

 

基于 Splice 系统调用的零拷贝方式,整个拷贝过程会发生 2 次上下文切换,0 次 CPU 拷贝以及 2 次 DMA 拷贝。

用户程序读写数据的流程如下:

Splice 拷贝方式也同样存在用户程序不能对数据进行修改的问题。除此之外,它使用了 Linux 的管道缓冲机制,可以用于任意两个文件描述符中传输数据,但是它的两个文件描述符参数中有一个必须是管道设备。

写时复制

在某些情况下,内核缓冲区可能被多个进程所共享,如果某个进程想要这个共享区进行 write 操作,由于 write 不提供任何的锁操作,那么就会对共享区中的数据造成破坏,写时复制的引入就是 Linux 用来保护数据的。

写时复制指的是当多个进程共享同一块数据时,如果其中一个进程需要对这份数据进行修改,那么就需要将其拷贝到自己的进程地址空间中。

这样做并不影响其他进程对这块数据的操作,每个进程要修改的时候才会进行拷贝,所以叫写时拷贝。

这种方法在某种程度上能够降低系统开销,如果某个进程永远不会对所访问的数据进行更改,那么也就永远不需要拷贝。

缓冲区共享

缓冲区共享方式完全改写了传统的 I/O 操作,因为传统 I/O 接口都是基于数据拷贝进行的,要避免拷贝就得去掉原先的那套接口并重新改写。

所以这种方法是比较全面的零拷贝技术,目前比较成熟的一个方案是在 Solaris 上实现的 fbuf(Fast Buffer,快速缓冲区)。

fbuf 的思想是每个进程都维护着一个缓冲区池,这个缓冲区池能被同时映射到用户空间(user space)和内核态(kernel space),内核和用户共享这个缓冲区池,这样就避免了一系列的拷贝操作。

 

 

缓冲区共享的难度在于管理共享缓冲区池需要应用程序、网络软件以及设备驱动程序之间的紧密合作,而且如何改写 API 目前还处于试验阶段并不成熟。

Linux 零拷贝对比

无论是传统 I/O 拷贝方式还是引入零拷贝的方式,2 次 DMA Copy 是都少不了的,因为两次 DMA 都是依赖硬件完成的。

下面从 CPU 拷贝次数、DMA 拷贝次数以及系统调用几个方面总结一下上述几种 I/O 拷贝方式的差别:

 

 

JAVA NIO 零拷贝实现

在 Java NIO 中的通道(Channel)就相当于操作系统的内核空间(kernel space)的缓冲区。

而缓冲区(Buffer)对应的相当于操作系统的用户空间(user space)中的用户缓冲区(user buffer):

堆外内存(DirectBuffer)在使用后需要应用程序手动回收,而堆内存(HeapBuffer)的数据在 GC 时可能会被自动回收。

因此,在使用 HeapBuffer 读写数据时,为了避免缓冲区数据因为 GC 而丢失,NIO 会先把 HeapBuffer 内部的数据拷贝到一个临时的 DirectBuffer 中的本地内存(native memory)。

这个拷贝涉及到 sun.misc.Unsafe.copyMemory() 的调用,背后的实现原理与 memcpy() 类似。

最后,将临时生成的 DirectBuffer 内部的数据的内存地址传给 I/O 调用函数,这样就避免了再去访问 Java 对象处理 I/O 读写。

MappedByteBuffer

MappedByteBuffer 是 NIO 基于内存映射(mmap)这种零拷贝方式提供的一种实现,它继承自 ByteBuffer。

FileChannel 定义了一个 map() 方法,它可以把一个文件从 position 位置开始的 size 大小的区域映射为内存映像文件。

抽象方法 map() 方法在 FileChannel 中的定义如下:

  1. public abstract MappedByteBuffer map(MapMode mode, long position, long size)
  2. throws IOException;

Mode:限定内存映射区域(MappedByteBuffer)对内存映像文件的访问模式,包括只可读(READ_ONLY)、可读可写(READ_WRITE)和写时拷贝(PRIVATE)三种模式。

Position:文件映射的起始地址,对应内存映射区域(MappedByteBuffer)的首地址。

Size:文件映射的字节长度,从 Position 往后的字节数,对应内存映射区域(MappedByteBuffer)的大小。

MappedByteBuffer 相比 ByteBuffer 新增了三个重要的方法:

下面给出一个利用 MappedByteBuffer 对文件进行读写的使用示例:

  1. private final static String CONTENT = "Zero copy implemented by MappedByteBuffer";
  2. private final static String FILE_NAME = "/mmap.txt";
  3. private final static String CHARSET = "UTF-8";

写文件数据:打开文件通道 fileChannel 并提供读权限、写权限和数据清空权限,通过 fileChannel 映射到一个可写的内存缓冲区 mappedByteBuffer,将目标数据写入 mappedByteBuffer,通过 force() 方法把缓冲区更改的内容强制写入本地文件。

  1. @Test
  2. public void writeToFileByMappedByteBuffer() {
  3. Path path = Paths.get(getClass().getResource(FILE_NAME).getPath());
  4. byte[] bytes = CONTENT.getBytes(Charset.forName(CHARSET));
  5. try (FileChannel fileChannel = FileChannel.open(path, StandardOpenOption.READ,
  6. StandardOpenOption.WRITE, StandardOpenOption.TRUNCATE_EXISTING)) {
  7. MappedByteBuffer mappedByteBuffer = fileChannel.map(READ_WRITE, 0, bytes.length);
  8. if (mappedByteBuffer != null) {
  9. mappedByteBuffer.put(bytes);
  10. mappedByteBuffer.force();
  11. }
  12. } catch (IOException e) {
  13. e.printStackTrace();
  14. }
  15. }

读文件数据:打开文件通道 fileChannel 并提供只读权限,通过 fileChannel 映射到一个只可读的内存缓冲区 mappedByteBuffer,读取 mappedByteBuffer 中的字节数组即可得到文件数据。

  1. @Test
  2. public void readFromFileByMappedByteBuffer() {
  3. Path path = Paths.get(getClass().getResource(FILE_NAME).getPath());
  4. int length = CONTENT.getBytes(Charset.forName(CHARSET)).length;
  5. try (FileChannel fileChannel = FileChannel.open(path, StandardOpenOption.READ)) {
  6. MappedByteBuffer mappedByteBuffer = fileChannel.map(READ_ONLY, 0, length);
  7. if (mappedByteBuffer != null) {
  8. byte[] bytes = new byte[length];
  9. mappedByteBuffer.get(bytes);
  10. String content = new String(bytes, StandardCharsets.UTF_8);
  11. assertEquals(content, "Zero copy implemented by MappedByteBuffer");
  12. }
  13. } catch (IOException e) {
  14. e.printStackTrace();
  15. }
  16. }

下面介绍 map() 方法的底层实现原理。map() 方法是 java.nio.channels.FileChannel 的抽象方法,由子类 sun.nio.ch.FileChannelImpl.java 实现。

下面是和内存映射相关的核心代码:

  1. public MappedByteBuffer map(MapMode mode, long position, long size) throws IOException {
  2. int pagePosition = (int)(position % allocationGranularity);
  3. long mapPosition = position - pagePosition;
  4. long mapSize = size + pagePosition;
  5. try {
  6. addr = map0(imode, mapPosition, mapSize);
  7. } catch (OutOfMemoryError x) {
  8. System.gc();
  9. try {
  10. Thread.sleep(100);
  11. } catch (InterruptedException y) {
  12. Thread.currentThread().interrupt();
  13. }
  14. try {
  15. addr = map0(imode, mapPosition, mapSize);
  16. } catch (OutOfMemoryError y) {
  17. throw new IOException("Map failed", y);
  18. }
  19. }
  20. int isize = (int)size;
  21. Unmapper um = new Unmapper(addr, mapSize, isize, mfd);
  22. if ((!writable) || (imode == MAP_RO)) {
  23. return Util.newMappedByteBufferR(isize, addr + pagePosition, mfd, um);
  24. } else {
  25. return Util.newMappedByteBuffer(isize, addr + pagePosition, mfd, um);
  26. }
  27. }

map() 方法通过本地方法 map0() 为文件分配一块虚拟内存,作为它的内存映射区域,然后返回这块内存映射区域的起始地址:

map() 方法返回的是内存映射区域的起始地址,通过(起始地址+偏移量)就可以获取指定内存的数据。

这样一定程度上替代了 read() 或 write() 方法,底层直接采用 sun.misc.Unsafe 类的 getByte() 和 putByte() 方法对数据进行读写。

  1. private native long map0(int prot, long position, long mapSize) throws IOException;

上面是本地方法(native method)map0 的定义,它通过 JNI(Java Native Interface)调用底层 C 的实现。

这个 native 函数(Java_sun_nio_ch_FileChannelImpl_map0)的实现位于 JDK 源码包下的 native/sun/nio/ch/FileChannelImpl.c 这个源文件里面。

  1. JNIEXPORT jlong JNICALL
  2. Java_sun_nio_ch_FileChannelImpl_map0(JNIEnv *env, jobject this,
  3. jint prot, jlong off, jlong len)
  4. {
  5. void *mapAddress = 0;
  6. jobject fdo = (*env)->GetObjectField(env, this, chan_fd);
  7. jint fd = fdval(env, fdo);
  8. int protections = 0;
  9. int flags = 0;
  10. if (prot == sun_nio_ch_FileChannelImpl_MAP_RO) {
  11. protections = PROT_READ;
  12. flags = MAP_SHARED;
  13. } else if (prot == sun_nio_ch_FileChannelImpl_MAP_RW) {
  14. protections = PROT_WRITE | PROT_READ;
  15. flags = MAP_SHARED;
  16. } else if (prot == sun_nio_ch_FileChannelImpl_MAP_PV) {
  17. protections = PROT_WRITE | PROT_READ;
  18. flags = MAP_PRIVATE;
  19. }
  20. mapAddress = mmap64(
  21. 0, /* Let OS decide location */
  22. len, /* Number of bytes to map */
  23. protections, /* File permissions */
  24. flags, /* Changes are shared */
  25. fd, /* File descriptor of mapped file */
  26. off); /* Offset into file */
  27. if (mapAddress == MAP_FAILED) {
  28. if (errno == ENOMEM) {
  29. JNU_ThrowOutOfMemoryError(env, "Map failed");
  30. return IOS_THROWN;
  31. }
  32. return handle(env, -1, "Map failed");
  33. }
  34. return ((jlong) (unsigned long) mapAddress);
  35. }

可以看出 map0() 函数最终是通过 mmap64() 这个函数对 Linux 底层内核发出内存映射的调用, mmap64() 函数的原型如下:

  1. #include <sys/mman.h>
  2. void *mmap64(void *addr, size_t len, int prot, int flags, int fd, off64_t offset);

下面详细介绍一下 mmap64() 函数各个参数的含义以及参数可选值:

addr:文件在用户进程空间的内存映射区中的起始地址,是一个建议的参数,通常可设置为 0 或 NULL,此时由内核去决定真实的起始地址。

当 flags 为 MAP_FIXED 时,addr 就是一个必选的参数,即需要提供一个存在的地址。

len:文件需要进行内存映射的字节长度。

prot:控制用户进程对内存映射区的访问权限:

flags:控制内存映射区的修改是否被多个进程共享:

fd:文件描述符。每次 map 操作会导致文件的引用计数加 1,每次 unmap 操作或者结束进程会导致引用计数减 1。

offset:文件偏移量。进行映射的文件位置,从文件起始地址向后的位移量。

下面总结一下 MappedByteBuffer 的特点和不足之处:

因此,用户程序需要通过 Java 反射的调用 sun.misc.Cleaner 类的 clean() 方法手动释放映射占用的内存区域。

  1. public static void clean(final Object buffer) throws Exception {
  2. AccessController.doPrivileged((PrivilegedAction<Void>) () -> {
  3. try {
  4. Method getCleanerMethod = buffer.getClass().getMethod("cleaner", new Class[0]);
  5. getCleanerMethod.setAccessible(true);
  6. Cleaner cleaner = (Cleaner) getCleanerMethod.invoke(buffer, new Object[0]);
  7. cleaner.clean();
  8. } catch(Exception e) {
  9. e.printStackTrace();
  10. }
  11. });
  12. }

DirectByteBuffer

DirectByteBuffer 的对象引用位于 Java 内存模型的堆里面,JVM 可以对 DirectByteBuffer 的对象进行内存分配和回收管理。

一般使用 DirectByteBuffer 的静态方法 allocateDirect() 创建 DirectByteBuffer 实例并分配内存。

  1. public static ByteBuffer allocateDirect(int capacity) {
  2. return new DirectByteBuffer(capacity);
  3. }

DirectByteBuffer 内部的字节缓冲区位在于堆外的(用户态)直接内存,它是通过 Unsafe 的本地方法 allocateMemory() 进行内存分配,底层调用的是操作系统的 malloc() 函数。

  1. DirectByteBuffer(int cap) {
  2. super(-1, 0, cap, cap);
  3. boolean pa = VM.isDirectMemoryPageAligned();
  4. int ps = Bits.pageSize();
  5. long size = Math.max(1L, (long)cap + (pa ? ps : 0));
  6. Bits.reserveMemory(size, cap);
  7. long base = 0;
  8. try {
  9. base = unsafe.allocateMemory(size);
  10. } catch (OutOfMemoryError x) {
  11. Bits.unreserveMemory(size, cap);
  12. throw x;
  13. }
  14. unsafe.setMemory(base, size, (byte) 0);
  15. if (pa && (base % ps != 0)) {
  16. address = base + ps - (base & (ps - 1));
  17. } else {
  18. address = base;
  19. }
  20. cleaner = Cleaner.create(this, new Deallocator(base, size, cap));
  21. att = null;
  22. }

除此之外,初始化 DirectByteBuffer 时还会创建一个 Deallocator 线程,并通过 Cleaner 的 freeMemory() 方法来对直接内存进行回收操作,freeMemory() 底层调用的是操作系统的 free() 函数。

  1. private static class Deallocator implements Runnable {
  2. private static Unsafe unsafe = Unsafe.getUnsafe();
  3. private long address;
  4. private long size;
  5. private int capacity;
  6. private Deallocator(long address, long size, int capacity) {
  7. assert (address != 0);
  8. this.address = address;
  9. this.size = size;
  10. this.capacity = capacity;
  11. }
  12. public void run() {
  13. if (address == 0) {
  14. return;
  15. }
  16. unsafe.freeMemory(address);
  17. address = 0;
  18. Bits.unreserveMemory(size, capacity);
  19. }
  20. }

由于使用 DirectByteBuffer 分配的是系统本地的内存,不在 JVM 的管控范围之内,因此直接内存的回收和堆内存的回收不同,直接内存如果使用不当,很容易造成 OutOfMemoryError。

说了这么多,那么 DirectByteBuffer 和零拷贝有什么关系?前面有提到在 MappedByteBuffer 进行内存映射时,它的 map() 方法会通过 Util.newMappedByteBuffer() 来创建一个缓冲区实例。

初始化的代码如下:

  1. static MappedByteBuffer newMappedByteBuffer(int size, long addr, FileDescriptor fd,
  2. Runnable unmapper) {
  3. MappedByteBuffer dbb;
  4. if (directByteBufferConstructor == null)
  5. initDBBConstructor();
  6. try {
  7. dbb = (MappedByteBuffer)directByteBufferConstructor.newInstance(
  8. new Object[] { new Integer(size), new Long(addr), fd, unmapper });
  9. } catch (InstantiationException | IllegalAccessException | InvocationTargetException e) {
  10. throw new InternalError(e);
  11. }
  12. return dbb;
  13. }
  14. private static void initDBBRConstructor() {
  15. AccessController.doPrivileged(new PrivilegedAction<Void>() {
  16. public Void run() {
  17. try {
  18. Class<?> cl = Class.forName("java.nio.DirectByteBufferR");
  19. Constructor<?> ctor = cl.getDeclaredConstructor(
  20. new Class<?>[] { int.class, long.class, FileDescriptor.class,
  21. Runnable.class });
  22. ctor.setAccessible(true);
  23. directByteBufferRConstructor = ctor;
  24. } catch (ClassNotFoundException | NoSuchMethodException |
  25. IllegalArgumentException | ClassCastException x) {
  26. throw new InternalError(x);
  27. }
  28. return null;
  29. }});
  30. }

DirectByteBuffer 是 MappedByteBuffer 的具体实现类。

实际上,Util.newMappedByteBuffer() 方法通过反射机制获取 DirectByteBuffer 的构造器,然后创建一个 DirectByteBuffer 的实例,对应的是一个单独用于内存映射的构造方法:

  1. protected DirectByteBuffer(int cap, long addr, FileDescriptor fd, Runnable unmapper) {
  2. super(-1, 0, cap, cap, fd);
  3. address = addr;
  4. cleaner = Cleaner.create(this, unmapper);
  5. att = null;
  6. }

因此,除了允许分配操作系统的直接内存以外,DirectByteBuffer 本身也具有文件内存映射的功能,这里不做过多说明。

我们需要关注的是,DirectByteBuffer 在 MappedByteBuffer 的基础上提供了内存映像文件的随机读取 get() 和写入 write() 的操作。

内存映像文件的随机读操作:

  1. public byte get() {
  2. return ((unsafe.getByte(ix(nextGetIndex()))));
  3. }
  4. public byte get(int i) {
  5. return ((unsafe.getByte(ix(checkIndex(i)))));
  6. }

内存映像文件的随机写操作:

  1. public ByteBuffer put(byte x) {
  2. unsafe.putByte(ix(nextPutIndex()), ((x)));
  3. return this;
  4. }
  5. public ByteBuffer put(int i, byte x) {
  6. unsafe.putByte(ix(checkIndex(i)), ((x)));
  7. return this;
  8. }

内存映像文件的随机读写都是借助 ix() 方法实现定位的, ix() 方法通过内存映射空间的内存首地址(address)和给定偏移量 i 计算出指针地址,然后由 unsafe 类的 get() 和 put() 方法和对指针指向的数据进行读取或写入。

  1. private long ix(int i) {
  2. return address + ((long)i << 0);
  3. }

FileChannel

FileChannel 是一个用于文件读写、映射和操作的通道,同时它在并发环境下是线程安全的。

基于 FileInputStream、FileOutputStream 或者 RandomaccessFile 的 getChannel() 方法可以创建并打开一个文件通道。

FileChannel 定义了 transferFrom() 和 transferTo() 两个抽象方法,它通过在通道和通道之间建立连接实现数据传输的。

transferTo():通过 FileChannel 把文件里面的源数据写入一个 WritableByteChannel 的目的通道。

  1. public abstract long transferTo(long position, long count, WritableByteChannel target)
  2. throws IOException;

transferFrom():把一个源通道 ReadableByteChannel 中的数据读取到当前 FileChannel 的文件里面。

  1. public abstract long transferFrom(ReadableByteChannel src, long position, long count)
  2. throws IOException;

下面给出 FileChannel 利用 transferTo() 和 transferFrom() 方法进行数据传输的使用示例:

  1. private static final String CONTENT = "Zero copy implemented by FileChannel";
  2. private static final String SOURCE_FILE = "/source.txt";
  3. private static final String TARGET_FILE = "/target.txt";
  4. private static final String CHARSET = "UTF-8";

首先在类加载根路径下创建 source.txt 和 target.txt 两个文件,对源文件 source.txt 文件写入初始化数据。

  1. @Before
  2. public void setup() {
  3. Path source = Paths.get(getClassPath(SOURCE_FILE));
  4. byte[] bytes = CONTENT.getBytes(Charset.forName(CHARSET));
  5. try (FileChannel fromChannel = FileChannel.open(source, StandardOpenOption.READ,
  6. StandardOpenOption.WRITE, StandardOpenOption.TRUNCATE_EXISTING)) {
  7. fromChannel.write(ByteBuffer.wrap(bytes));
  8. } catch (IOException e) {
  9. e.printStackTrace();
  10. }
  11. }

对于 transferTo() 方法而言,目的通道 toChannel 可以是任意的单向字节写通道 WritableByteChannel;而对于 transferFrom() 方法而言,源通道 fromChannel 可以是任意的单向字节读通道 ReadableByteChannel。

其中,FileChannel、SocketChannel 和 DatagramChannel 等通道实现了 WritableByteChannel 和 ReadableByteChannel 接口,都是同时支持读写的双向通道。

为了方便测试,下面给出基于 FileChannel 完成 channel-to-channel 的数据传输示例。

通过 transferTo() 将 fromChannel 中的数据拷贝到 toChannel:

  1. @Test
  2. public void transferTo() throws Exception {
  3. try (FileChannel fromChannel = new RandomAccessFile(
  4. getClassPath(SOURCE_FILE), "rw").getChannel();
  5. FileChannel toChannel = new RandomAccessFile(
  6. getClassPath(TARGET_FILE), "rw").getChannel()) {
  7. long position = 0L;
  8. long offset = fromChannel.size();
  9. fromChannel.transferTo(position, offset, toChannel);
  10. }
  11. }

通过 transferFrom() 将 fromChannel 中的数据拷贝到 toChannel:

  1. @Test
  2. public void transferFrom() throws Exception {
  3. try (FileChannel fromChannel = new RandomAccessFile(
  4. getClassPath(SOURCE_FILE), "rw").getChannel();
  5. FileChannel toChannel = new RandomAccessFile(
  6. getClassPath(TARGET_FILE), "rw").getChannel()) {
  7. long position = 0L;
  8. long offset = fromChannel.size();
  9. toChannel.transferFrom(fromChannel, position, offset);
  10. }
  11. }

下面介绍 transferTo() 和 transferFrom() 方法的底层实现原理,这两个方法也是 java.nio.channels.FileChannel 的抽象方法,由子类 sun.nio.ch.FileChannelImpl.java 实现。

transferTo() 和 transferFrom() 底层都是基于 Sendfile 实现数据传输的,其中 FileChannelImpl.java 定义了 3 个常量,用于标示当前操作系统的内核是否支持 Sendfile 以及 Sendfile 的相关特性。

  1. private static volatile boolean transferSupported = true;
  2. private static volatile boolean pipeSupported = true;
  3. private static volatile boolean fileSupported = true;

transferSupported:用于标记当前的系统内核是否支持 sendfile() 调用,默认为 true。

pipeSupported:用于标记当前的系统内核是否支持文件描述符(fd)基于管道(pipe)的 sendfile() 调用,默认为 true。

fileSupported:用于标记当前的系统内核是否支持文件描述符(fd)基于文件(file)的 sendfile() 调用,默认为 true。

下面以 transferTo() 的源码实现为例。FileChannelImpl 首先执行 transferToDirectly() 方法,以 Sendfile 的零拷贝方式尝试数据拷贝。

如果系统内核不支持 Sendfile,进一步执行 transferToTrustedChannel() 方法,以 mmap 的零拷贝方式进行内存映射,这种情况下目的通道必须是 FileChannelImpl 或者 SelChImpl 类型。

如果以上两步都失败了,则执行 transferToArbitraryChannel() 方法,基于传统的 I/O 方式完成读写,具体步骤是初始化一个临时的 DirectBuffer,将源通道 FileChannel 的数据读取到 DirectBuffer,再写入目的通道 WritableByteChannel 里面。

  1. public long transferTo(long position, long count, WritableByteChannel target)
  2. throws IOException {
  3. // 计算文件的大小
  4. long sz = size();
  5. // 校验起始位置
  6. if (position > sz)
  7. return 0;
  8. int icount = (int)Math.min(count, Integer.MAX_VALUE);
  9. // 校验偏移量
  10. if ((sz - position) < icount)
  11. icount = (int)(sz - position);
  12. long n;
  13. if ((n = transferToDirectly(position, icount, target)) >= 0)
  14. return n;
  15. if ((n = transferToTrustedChannel(position, icount, target)) >= 0)
  16. return n;
  17. return transferToArbitraryChannel(position, icount, target);
  18. }

接下来重点分析一下 transferToDirectly() 方法的实现,也就是 transferTo() 通过 Sendfile 实现零拷贝的精髓所在。

可以看到,transferToDirectlyInternal() 方法先获取到目的通道 WritableByteChannel 的文件描述符 targetFD,获取同步锁然后执行 transferToDirectlyInternal() 方法。

  1. private long transferToDirectly(long position, int icount, WritableByteChannel target)
  2. throws IOException {
  3. // 省略从target获取targetFD的过程
  4. if (nd.transferToDirectlyNeedsPositionLock()) {
  5. synchronized (positionLock) {
  6. long pos = position();
  7. try {
  8. return transferToDirectlyInternal(position, icount,
  9. target, targetFD);
  10. } finally {
  11. position(pos);
  12. }
  13. }
  14. } else {
  15. return transferToDirectlyInternal(position, icount, target, targetFD);
  16. }
  17. }

最终由 transferToDirectlyInternal() 调用本地方法 transferTo0() ,尝试以 Sendfile 的方式进行数据传输。

如果系统内核完全不支持 Sendfile,比如 Windows 操作系统,则返回 UNSUPPORTED 并把 transferSupported 标识为 false。

如果系统内核不支持 Sendfile 的一些特性,比如说低版本的 Linux 内核不支持 DMA gather copy 操作,则返回 UNSUPPORTED_CASE 并把 pipeSupported 或者 fileSupported 标识为 false。

  1. private long transferToDirectlyInternal(long position, int icount,
  2. WritableByteChannel target,
  3. FileDescriptor targetFD) throws IOException {
  4. assert !nd.transferToDirectlyNeedsPositionLock() ||
  5. Thread.holdsLock(positionLock);
  6. long n = -1;
  7. int ti = -1;
  8. try {
  9. begin();
  10. ti = threads.add();
  11. if (!isOpen())
  12. return -1;
  13. do {
  14. n = transferTo0(fd, position, icount, targetFD);
  15. } while ((n == IOStatus.INTERRUPTED) && isOpen());
  16. if (n == IOStatus.UNSUPPORTED_CASE) {
  17. if (target instanceof SinkChannelImpl)
  18. pipeSupported = false;
  19. if (target instanceof FileChannelImpl)
  20. fileSupported = false;
  21. return IOStatus.UNSUPPORTED_CASE;
  22. }
  23. if (n == IOStatus.UNSUPPORTED) {
  24. transferSupported = false;
  25. return IOStatus.UNSUPPORTED;
  26. }
  27. return IOStatus.normalize(n);
  28. } finally {
  29. threads.remove(ti);
  30. end (n > -1);
  31. }
  32. }

本地方法(native method)transferTo0() 通过 JNI(Java Native Interface)调用底层 C 的函数。

这个 native 函数(Java_sun_nio_ch_FileChannelImpl_transferTo0)同样位于 JDK 源码包下的 native/sun/nio/ch/FileChannelImpl.c 源文件里面。

JNI 函数 Java_sun_nio_ch_FileChannelImpl_transferTo0() 基于条件编译对不同的系统进行预编译,下面是 JDK 基于 Linux 系统内核对 transferTo() 提供的调用封装。

  1. #if defined(__linux__) || defined(__solaris__)
  2. #include <sys/sendfile.h>
  3. #elif defined(_AIX)
  4. #include <sys/socket.h>
  5. #elif defined(_ALLBSD_SOURCE)
  6. #include <sys/types.h>
  7. #include <sys/socket.h>
  8. #include <sys/uio.h>
  9. #define lseek64 lseek
  10. #define mmap64 mmap
  11. #endif
  12. JNIEXPORT jlong JNICALL
  13. Java_sun_nio_ch_FileChannelImpl_transferTo0(JNIEnv *env, jobject this,
  14. jobject srcFDO,
  15. jlong position, jlong count,
  16. jobject dstFDO)
  17. {
  18. jint srcFD = fdval(env, srcFDO);
  19. jint dstFD = fdval(env, dstFDO);
  20. #if defined(__linux__)
  21. off64_t offset = (off64_t)position;
  22. jlong n = sendfile64(dstFD, srcFD, &offset, (size_t)count);
  23. return n;
  24. #elif defined(__solaris__)
  25. result = sendfilev64(dstFD, &sfv, 1, &numBytes);
  26. return result;
  27. #elif defined(__APPLE__)
  28. result = sendfile(srcFD, dstFD, position, &numBytes, NULL, 0);
  29. return result;
  30. #endif
  31. }

对 Linux、Solaris 以及 Apple 系统而言,transferTo0() 函数底层会执行 sendfile64 这个系统调用完成零拷贝操作,sendfile64() 函数的原型如下:

  1. #include <sys/sendfile.h>
  2. ssize_t sendfile64(int out_fd, int in_fd, off_t *offset, size_t count);

下面简单介绍一下 sendfile64() 函数各个参数的含义:

在 Linux 2.6.3 之前,out_fd 必须是一个 socket,而从 Linux 2.6.3 以后,out_fd 可以是任何文件。

也就是说,sendfile64() 函数不仅可以进行网络文件传输,还可以对本地文件实现零拷贝操作。

其它的零拷贝实现

Netty 零拷贝

Netty 中的零拷贝和上面提到的操作系统层面上的零拷贝不太一样, 我们所说的 Netty 零拷贝完全是基于(Java 层面)用户态的,它的更多的是偏向于数据操作优化这样的概念。

具体表现在以下几个方面:

其中第 1 条属于操作系统层面的零拷贝操作,后面 3 条只能算用户层面的数据操作优化。

RocketMQ 和 Kafka 对比

RocketMQ 选择了 mmap+write 这种零拷贝方式,适用于业务级消息这种小块文件的数据持久化和传输。

而 Kafka 采用的是 Sendfile 这种零拷贝方式,适用于系统日志消息这种高吞吐量的大块文件的数据持久化和传输。

但是值得注意的一点是,Kafka 的索引文件使用的是 mmap+write 方式,数据文件使用的是 Sendfile 方式。

 

 

总结

本文开篇详述了 Linux 操作系统中的物理内存和虚拟内存,内核空间和用户空间的概念以及 Linux 内部的层级结构。

在此基础上,进一步分析和对比传统 I/O 方式和零拷贝方式的区别,然后介绍了 Linux 内核提供的几种零拷贝实现。

包括内存映射 mmap、Sendfile、Sendfile+DMA gather copy 以及 Splice 几种机制,并从系统调用和拷贝次数层面对它们进行了对比。

接下来从源码着手分析了 Java NIO 对零拷贝的实现,主要包括基于内存映射(mmap)方式的 MappedByteBuffer 以及基于 Sendfile 方式的 FileChannel。

最后在篇末简单的阐述了一下 Netty 中的零拷贝机制,以及 RocketMQ 和 Kafka 两种消息队列在零拷贝实现方式上的区别。

作者:陈林

简介:五年研发与架构经验,曾任职 SAP 中国研发中心后端研发、上海冰鉴科技信息科技有限公司架构师助理,目前担任成都 ThoughtWorks 有限公司高级咨询师与研发人员。熟悉大数据、高并发、负载均衡、缓存、数据库、消息中间件、搜索引擎、容器和自动化等领域。个人学习能力强,技术热情高,热爱开源和写技术博客,善于沟通和分享。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>