日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

JAVA NIO之淺談內存映射文件原理與DirectMemory

 LibraryPKU 2013-05-02
 JAVA類庫中的NIO包相對于IO 包來說有一個新功能是內存映射文件,日常編程中并不是經常用到,但是在處理大文件時是比較理想的提高效率的手段。本文我主要想結合操作系統(tǒng)中(OS)相關方面的知識介紹一下原理。

   在傳統(tǒng)的文件IO操作中,我們都是調用操作系統(tǒng)提供的底層標準IO系統(tǒng)調用函數  read()、write() ,此時調用此函數的進程(在JAVA中即java進程)由當前的用戶態(tài)切換到內核態(tài),然后OS的內核代碼負責將相應的文件數據讀取到內核的IO緩沖區(qū),然 后再把數據從內核IO緩沖區(qū)拷貝到進程的私有地址空間中去,這樣便完成了一次IO操作。至于為什么要多此一舉搞一個內核IO緩沖區(qū)把原本只需一次拷貝數據 的事情搞成需要2次數據拷貝呢? 我想學過操作系統(tǒng)或者計算機系統(tǒng)結構的人都知道,這么做是為了減少磁盤的IO操作,為了提高性能而考慮的,因為我們的程序訪問一般都帶有局部性,也就是所 謂的局部性原理,在這里主要是指的空間局部性,即我們訪問了文件的某一段數據,那么接下去很可能還會訪問接下去的一段數據,由于磁盤IO操作的速度比直接 訪問內存慢了好幾個數量級,所以OS根據局部性原理會在一次 read()系統(tǒng)調用過程中預讀更多的文件數據緩存在內核IO緩沖區(qū)中,當繼續(xù)訪問的文件數據在緩沖區(qū)中時便直接拷貝數據到進程私有空間,避免了再次的低 效率磁盤IO操作。在JAVA中當我們采用IO包下的文件操作流,如:  

  1. FileInputStream in = new FileInputStream("D:\\java.txt");  
  1. in.read();  

   JAVA虛擬機內部便會調用OS底層的 read()系統(tǒng)調用完成操作,如上所述,在第二次調用 in.read()的時候可能就是從內核緩沖區(qū)直接返回數據了(可能還有經過 native堆做一次中轉,因為這些函數都被聲明為 native,即本地平臺相關,所以可能在C代碼中有做一次中轉,如 win32中是通過 C代碼從OS讀取數據,然后再傳給JVM內存)。既然如此,JAVA的IO包中為啥還要提供一個 BufferedInputStream 類來作為緩沖區(qū)呢。關鍵在于四個字,"系統(tǒng)調用"!當讀取OS內核緩沖區(qū)數據的時候,便發(fā)起了一次系統(tǒng)調用操作(通過native的C函數調用),而系統(tǒng) 調用的代價相對來說是比較高的,涉及到進程用戶態(tài)和內核態(tài)的上下文切換等一系列操作,所以我們經常采用如下的包裝:

  1. FileInputStream in = new FileInputStream("D:\\java.txt");   
  1. BufferedInputStream buf_in = new BufferedInputStream(in);  
  1. buf_in.read();  

  這樣一來,我們每一次 buf_in.read() 時候,BufferedInputStream 會根據情況自動為我們預讀更多的字節(jié)數據到它自己維護的一個內部字節(jié)數組緩沖區(qū)中,這樣我們便可以減少系統(tǒng)調用次數,從而達到其緩沖區(qū)的目的。所以要明確 的一點是 BufferedInputStream 的作用不是減少 磁盤IO操作次數(這個OS已經幫我們做了),而是通過減少系統(tǒng)調用次數來提高性能的。同理 BufferedOuputStream , BufferedReader/Writer 也是一樣的。在 C語言的函數庫中也有類似的實現(xiàn),如 fread(),這個函數就是 C語言中的緩沖IO,作用與BufferedInputStream()相同.

    這里簡單的引用下JDK6 中 BufferedInputStream 的源碼驗證下:

 

  1. public  
  2. class BufferedInputStream extends FilterInputStream {  
  3.   
  4.     private static int defaultBufferSize = 8192;  
  5.   
  6.     /** 
  7.      * The internal buffer array where the data is stored. When necessary, 
  8.      * it may be replaced by another array of 
  9.      * a different size. 
  10.      */  
  11.     protected volatile byte buf[];  
  12.   /** 
  13.      * The index one greater than the index of the last valid byte in  
  14.      * the buffer.  
  15.      * This value is always 
  16.      * in the range <code>0</code> through <code>buf.length</code>; 
  17.      * elements <code>buf[0]</code>  through <code>buf[count-1] 
  18.      * </code>contain buffered input data obtained 
  19.      * from the underlying  input stream. 
  20.      */  
  21.     protected int count;  
  22.   
  23.     /** 
  24.      * The current position in the buffer. This is the index of the next  
  25.      * character to be read from the <code>buf</code> array.  
  26.      * <p> 
  27.      * This value is always in the range <code>0</code> 
  28.      * through <code>count</code>. If it is less 
  29.      * than <code>count</code>, then  <code>buf[pos]</code> 
  30.      * is the next byte to be supplied as input; 
  31.      * if it is equal to <code>count</code>, then 
  32.      * the  next <code>read</code> or <code>skip</code> 
  33.      * operation will require more bytes to be 
  34.      * read from the contained  input stream. 
  35.      * 
  36.      * @see     java.io.BufferedInputStream#buf 
  37.      */  
  38.     protected int pos;  
  39.   
  40.  /* 這里省略去 N 多代碼 ------>>  */  
  41.   
  42.   /** 
  43.      * See 
  44.      * the general contract of the <code>read</code> 
  45.      * method of <code>InputStream</code>. 
  46.      * 
  47.      * @return     the next byte of data, or <code>-1</code> if the end of the 
  48.      *             stream is reached. 
  49.      * @exception  IOException  if this input stream has been closed by 
  50.      *              invoking its {@link #close()} method, 
  51.      *              or an I/O error occurs.  
  52.      * @see        java.io.FilterInputStream#in 
  53.      */  
  54.     public synchronized int read() throws IOException {  
  55.     if (pos >= count) {  
  56.         fill();  
  57.         if (pos >= count)  
  58.         return -1;  
  59.     }  
  60.     return getBufIfOpen()[pos++] & 0xff;  
  61.     }  
  62.      


   我們可以看到,BufferedInputStream 內部維護著一個 字節(jié)數組 byte[] buf 來實現(xiàn)緩沖區(qū)的功能,我們調用的  buf_in.read() 方法在返回數據之前有做一個 if 判斷,如果 buf 數組的當前索引不在有效的索引范圍之內,即 if 條件成立, buf 字段維護的緩沖區(qū)已經不夠了,這時候會調用 內部的 fill() 方法進行填充,而fill()會預讀更多的數據到 buf 數組緩沖區(qū)中去,然后再返回當前字節(jié)數據,如果 if 條件不成立便直接從 buf緩沖區(qū)數組返回數據了。其中getBufIfOpen()返回的就是 buf字段的引用。順便說下,源碼中的 buf 字段聲明為  protected volatile byte buf[];  主要是為了通過 volatile 關鍵字保證 buf數組在多線程并發(fā)環(huán)境中的內存可見性.

   和 JAVA NIO 的內存映射無關的部分說了這么多篇幅,主要是為了做個鋪墊,這樣才能建立起一個知識體系,以便更好的理解內存映射文件的優(yōu)點。

   內存映射文件和之前說的 標準IO操作最大的不同之處就在于它雖然最終也是要從磁盤讀取數據,但是它并不需要將數據讀取到OS內核緩沖區(qū),而是直接將進程的用戶私有地址空間中的一 部分區(qū)域與文件對象建立起映射關系,就好像直接從內存中讀、寫文件一樣,速度當然快了。為了說清楚這個,我們以 Linux操作系統(tǒng)為例子,看下圖:

  

   此圖為 Linux 2.X 中的進程虛擬存儲器,即進程的虛擬地址空間,如果你的機子是 32 位,那么就有  2^32 = 4G的虛擬地址空間,我們可以看到圖中有一塊區(qū)域: “Memory mapped region for shared libraries” ,這段區(qū)域就是在內存映射文件的時候將某一段的虛擬地址和文件對象的某一部分建立起映射關系,此時并沒有拷貝數據到內存中去,而是當進程代碼第一次引用這 段代碼內的虛擬地址時,觸發(fā)了缺頁異常,這時候OS根據映射關系直接將文件的相關部分數據拷貝到進程的用戶私有空間中去,當有操作第N頁數據的時候重復這 樣的OS頁面調度程序操作。注意啦,原來內存映射文件的效率比標準IO高的重要原因就是因為少了把數據拷貝到OS內核緩沖區(qū)這一步(可能還少了 native堆中轉這一步)。

   java中提供了3種內存映射模式,即:只讀(readonly)、讀寫(read_write)、專用(private) ,對于  只讀模式來說,如果程序試圖進行寫操作,則會拋出ReadOnlyBufferException異 常;第二種的讀寫模式表明了通過內存映射文件的方式寫或修改文件內容的話是會立刻反映到磁盤文件中去的,別的進程如果共享了同一個映射文件,那么也會立即 看到變化!而不是像標準IO那樣每個進程有各自的內核緩沖區(qū),比如JAVA代碼中,沒有執(zhí)行 IO輸出流的 flush() 或者  close() 操作,那么對文件的修改不會更新到磁盤去,除非進程運行結束;最后一種專用模式采用的是OS的“寫時拷貝”原則,即在沒有發(fā)生寫操作的情況下,多個進程之 間都是共享文件的同一塊物理內存(進程各自的虛擬地址指向同一片物理地址),一旦某個進程進行寫操作,那么將會把受影響的文件數據單獨拷貝一份到進程的私 有緩沖區(qū)中,不會反映到物理文件中去。

 

   在JAVA NIO中可以很容易的創(chuàng)建一塊內存映射區(qū)域,代碼如下:

   

  1. File file = new File("E:\\download\\office2007pro.chs.ISO");  
  2. FileInputStream in = new FileInputStream(file);  
  3. FileChannel channel = in.getChannel();  
  4. MappedByteBuffer buff = channel.map(FileChannel.MapMode.READ_ONLY, 0,channel.size());  


  這里創(chuàng)建了一個只讀模式的內存映射文件區(qū)域,接下來我就來測試下與普通NIO中的通道操作相比性能上的優(yōu)勢,先看如下代碼:

   

  1. public class IOTest {  
  2.     static final int BUFFER_SIZE = 1024;  
  3.   
  4.     public static void main(String[] args) throws Exception {  
  5.   
  6.         File file = new File("F:\\aa.pdf");  
  7.         FileInputStream in = new FileInputStream(file);  
  8.         FileChannel channel = in.getChannel();  
  9.         MappedByteBuffer buff = channel.map(FileChannel.MapMode.READ_ONLY, 0,  
  10.                 channel.size());  
  11.   
  12.         byte[] b = new byte[1024];  
  13.         int len = (int) file.length();  
  14.   
  15.         long begin = System.currentTimeMillis();  
  16.   
  17.         for (int offset = 0; offset < len; offset += 1024) {  
  18.   
  19.             if (len - offset > BUFFER_SIZE) {  
  20.                 buff.get(b);  
  21.             } else {  
  22.                 buff.get(new byte[len - offset]);  
  23.             }  
  24.         }  
  25.   
  26.         long end = System.currentTimeMillis();  
  27.         System.out.println("time is:" + (end - begin));  
  28.   
  29.     }  
  30. }  

  輸出為 63,即通過內存映射文件的方式讀取 86M多的文件只需要78毫秒,我現(xiàn)在改為普通NIO的通道操作看下:

   

  1.              File file = new File("F:\\liq.pdf");  
  2. FileInputStream in = new FileInputStream(file);  
  3. FileChannel channel = in.getChannel();  
  4. ByteBuffer buff = ByteBuffer.allocate(1024);   
  5.   
  6. long begin = System.currentTimeMillis();  
  7. while (channel.read(buff) != -1) {  
  8.     buff.flip();  
  9.     buff.clear();  
  10. }  
  11. long end = System.currentTimeMillis();  
  12. System.out.println("time is:" + (end - begin));  

    
  輸出為 468毫秒,幾乎是 6 倍的差距,文件越大,差距便越大。所以內存映射文件特別適合于對大文件的操作,JAVA中的限制是最大不得超過 Integer.MAX_VALUE,即2G左右,不過我們可以通過分次映射文件(channel.map)的不同部分來達到操作整個文件的目的。

   按照jdk文檔的官方說法,內存映射文件屬于JVM中的直接緩沖區(qū),還可以通過 ByteBuffer.allocateDirect() ,即DirectMemory的方式來創(chuàng)建直接緩沖區(qū)。他們相比基礎的 IO操作來說就是少了中間緩沖區(qū)的數據拷貝開銷。同時他們屬于JVM堆外內存,不受JVM堆內存大小的限制。

 

   其中 DirectMemory 默認的大小是等同于JVM最大堆,理論上說受限于 進程的虛擬地址空間大小,比如 32位的windows上,每個進程有4G的虛擬空間除去 2G為OS內核保留外,再減去 JVM堆的最大值,剩余的才是DirectMemory大小。通過 設置 JVM參數 -Xmx64M,即JVM最大堆為64M,然后執(zhí)行以下程序可以證明DirectMemory不受JVM堆大小控制:

  1.   public static void main(String[] args) {       
  2.  ByteBuffer.allocateDirect(1024*1024*100); // 100MB  
  3. }  

   我們設置了JVM堆 64M限制,然后在 直接內存上分配了 100MB空間,程序執(zhí)行后直接報錯:Exception in thread "main" java.lang.OutOfMemoryError: Direct buffer memory。接著我設置 -Xmx200M,程序正常結束。然后我修改配置: -Xmx64M  -XX:MaxDirectMemorySize=200M,程序正常結束。因此得出結論: 直接內存DirectMemory的大小默認為 -Xmx 的JVM堆的最大值,但是并不受其限制,而是由JVM參數 MaxDirectMemorySize單獨控制。接下來我們來證明直接內存不是分配在JVM堆中。我們先執(zhí)行以下程序,并設置 JVM參數 -XX:+PrintGC, 

  1. public static void main(String[] args) {         
  2.  for(int i=0;i<20000;i++) {  
  3.            ByteBuffer.allocateDirect(1024*100);  //100K  
  4.       }  
  5.   }  


  輸出結果如下:

     [GC 1371K->1328K(61312K), 0.0070033 secs]
     [Full GC 1328K->1297K(61312K), 0.0329592 secs]
     [GC 3029K->2481K(61312K), 0.0037401 secs]
     [Full GC 2481K->2435K(61312K), 0.0102255 secs]

   我們看到這里執(zhí)行 GC的次數較少,但是觸發(fā)了 兩次 Full GC,原因在于直接內存不受 GC(新生代的Minor GC)影響,只有當執(zhí)行老年代的 Full GC時候才會順便回收直接內存!而直接內存是通過存儲在JVM堆中的DirectByteBuffer對象來引用的,所以當眾多的 DirectByteBuffer對象從新生代被送入老年代后才觸發(fā)了 full gc。

 

  再看直接在JVM堆上分配內存區(qū)域的情況:

 

  1. public static void main(String[] args) {         
  2. r(int i=0;i<10000;i++) {  
  3.           ByteBuffer.allocate(1024*100);  //100K  
  4.   
  5. }  


  ByteBuffer.allocate 意味著直接在 JVM堆上分配內存,所以受 新生代的 Minor GC影響,輸出如下:

   
        [GC 16023K->224K(61312K), 0.0012432 secs]
        [GC 16211K->192K(77376K), 0.0006917 secs]
        [GC 32242K->176K(77376K), 0.0010613 secs]
        [GC 32225K->224K(109504K), 0.0005539 secs]
        [GC 64423K->192K(109504K), 0.0006151 secs]
        [GC 64376K->192K(171392K), 0.0004968 secs]
        [GC 128646K->204K(171392K), 0.0007423 secs]
        [GC 128646K->204K(299968K), 0.0002067 secs]
        [GC 257190K->204K(299968K), 0.0003862 secs]
        [GC 257193K->204K(287680K), 0.0001718 secs]
        [GC 245103K->204K(276480K), 0.0001994 secs]
        [GC 233662K->204K(265344K), 0.0001828 secs]
        [GC 222782K->172K(255232K), 0.0001998 secs]
        [GC 212374K->172K(245120K), 0.0002217 secs]

   可以看到,由于直接在 JVM堆上分配內存,所以觸發(fā)了多次GC,且不會觸及  Full GC,因為對象根本沒機會進入老年代。

 

   我想提個疑問,NIO中的DirectMemory和內存文件映射同屬于直接緩沖區(qū),但是前者和 -Xmx和-XX:MaxDirectMemorySize有關,而后者完全沒有JVM參數可以影響和控制,這讓我不禁懷疑兩者的直接緩沖區(qū)是否相同,前 者指的是 JAVA進程中的 native堆,即涉及底層平臺如 win32的dll 部分,因為 C語言中的 malloc()分配的內存就屬于 native堆,不屬于 JVM堆,這也是DirectMemory能在一些場景中顯著提高性能的原因,因為它避免了在 native堆和jvm堆之間數據的來回復制;而后者則是沒有經過 native堆,是由 JAVA進程直接建立起 某一段虛擬地址空間和文件對象的關聯(lián)映射關系,參見 Linux虛擬存儲器圖中的 “Memory mapped region for shared libraries”  區(qū)域,所以內存映射文件的區(qū)域并不在JVM GC的回收范圍內,因為它本身就不屬于堆區(qū),卸載這部分區(qū)域只能通過系統(tǒng)調用 unmap()來實現(xiàn) (Linux)中,而 JAVA API 只提供了 FileChannel.map 的形式創(chuàng)建內存映射區(qū)域,卻沒有提供對應的 unmap(),讓人十分費解,導致要卸載這部分區(qū)域比較麻煩。

 

  最后再試試通過 DirectMemory來操作前面 內存映射和基本通道操作的例子,來看看直接內存操作的話,程序的性能如何:

   

  1.              File file = new File("F:\\liq.pdf");  
  2. FileInputStream in = new FileInputStream(file);  
  3. FileChannel channel = in.getChannel();  
  4. ByteBuffer buff = ByteBuffer.allocateDirect(1024);   
  5.   
  6. long begin = System.currentTimeMillis();  
  7. while (channel.read(buff) != -1) {  
  8.     buff.flip();  
  9.     buff.clear();  
  10. }  
  11. long end = System.currentTimeMillis();  
  12. System.out.println("time is:" + (end - begin));  

  程序輸出為 312毫秒,看來比普通的NIO通道操作(468毫秒)來的快,但是比 mmap 內存映射的 63秒差距太多了,我想應該不至于吧,通過修改;ByteBuffer buff = ByteBuffer.allocateDirect(1024);  為 ByteBuffer buff = ByteBuffer.allocateDirect((int)file.length()),即一次性分配整個文件長度大小的堆外內存,最終輸出為 78毫秒,由此可以得出兩個結論:1.堆外內存的分配耗時比較大.   2.還是比mmap內存映射來得慢,都不要說通過mmap讀取數據的時候還涉及缺頁異常、頁面調度的系統(tǒng)調用了,看來內存映射文件確實NB啊,這還只是 86M的文件,如果上 G 的大小呢?

  最后一點為 DirectMemory的內存只有在 JVM執(zhí)行 full gc 的時候才會被回收,那么如果在其上分配過大的內存空間,那么也將出現(xiàn) OutofMemoryError,即便 JVM 堆中的很多內存處于空閑狀態(tài)。

  

  本來只想寫點內存映射部分,但是寫著寫著涉及進來的知識多了點,邊界不好把控啊。。。

 

  尼瑪,都是3月8號凌晨快2點了,不過想想總比以前玩 拳皇游戲 熬夜來的好吧,寫完收工,趕緊睡覺去。。。

  

   我想補充下額外的一個知識點,關于 JVM堆大小的設置是不受限于物理內存,而是受限于虛擬內存空間大小,理論上來說是進程的虛擬地址空間大小,但是實際上我們的虛擬內存空間是有限制的,一 般windows上默認在C盤,大小為物理內存的2倍左右。我做了個實驗:我機子是 64位的win7,那么理論上說進程虛擬空間是幾乎無限大,物理內存為4G,而我設置 -Xms5000M, 即在啟動JAVA程序的時候一次性申請到超過物理內存大小的5000M內存,程序正常啟動,而當我加到 -Xms8000M的時候就報OOM錯誤了,然后我修改增加 win7的虛擬內存,程序又正常啟動了,說明 -Xms 受限于虛擬內存的大小。我設置-Xms5000M,即超過了4G物理內存,并在一個死循環(huán)中不斷創(chuàng)建對象,并保證不會被GC回收。程序運行一會后整個電腦 幾乎死機狀態(tài),即卡住了,反映很慢很慢,推測是發(fā)生了系統(tǒng)顛簸,即頻繁的頁面調度置換導致,說明 -Xms -Xmx不是局限于物理內存的大小,而是綜合虛擬內存了,JVM會根據電腦虛擬內存的設置來控制。

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多