is ashift=12 recommended for 3TB WD Green drives?

Moderators: jhartley, MSR734, nola

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by NakkiNyan » Sat Oct 06, 2012 5:55 am

si-ghan-bi wrote:Before thinking the worst, why don't you try a real benchmark? The iostat command is not what you need to have reliable values: for example, it gives you average values and if you are not using the disk heavily, values are off.

I was writing data to the disk at 5-7MB/s and other benchmark apps and "time dd ..." showed the same or worse with compression and spotlight off so it does not skew the numbers. I am remaking the pool in about 15 hours (the time it takes to move everything off) and if it still shows bad (single digit) numbers I will have drop ZFS for good since I store video on it that I can't watch unless I cache the whole thing or save to desktop first. There is simply no logical reason why a 4 disk array should be slower than a single disk over USB3.

The disks are in use so these numbers are skewed, a lot, but I will test writing and benchmarking again before destroying the pool.

*Writes using dd...
1 HFS+ disk --- 25.3MB/s
3 ZFS RAIDz --- 5.4MB/s

si-ghan-bi wrote:And more important: are there disadvantages in using the ashift command?

None that I have found, it is there to increase performance. It could reduce capacity but with the gain by compression the little that is lost is easily gained back. Of course my compression is off to get back speed.
Last edited by NakkiNyan on Sat Oct 06, 2012 6:17 am, edited 1 time in total.
NakkiNyan Offline


 
Posts: 47
Joined: Tue Oct 02, 2012 12:19 pm

cross references (RAID-Z etc., not specific to Western Digit

Post by grahamperrin » Sat Oct 06, 2012 6:13 am

NakkiNyan wrote:… want the same speed from my raidz that I got from a single HDD using HFS+ …


Previously not found by searching the forum :-( but the following topics may be of interest:


Current combinations of RAID-Z with Advanced Format deserve special attention. Speakers at the 2012 Illumos ZFS Day gave very eloquent explanations – not specific to any Western Digital product, so I'll post to a separate topic.
grahamperrin Offline

User avatar
 
Posts: 1596
Joined: Fri Sep 14, 2012 10:21 pm
Location: Brighton and Hove, United Kingdom

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by markpaterson » Sat Oct 06, 2012 7:34 am

OK. Thanks for the replies guys. seems like there's no clear answer yet.

In the mean time i've done another test (on my ashift=0 pool), this time duplicating a 4.07GB MOV while running zpool iostat -v

Code: Select all
marks-mac-pro:~ mark$ zpool iostat -v 3
                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.44Ti  2.74Ti       2       3   121Ki   151Ki
  raidz1                                       5.44Ti  2.74Ti       2       3   121Ki   151Ki
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -       0       1  41.6Ki  77.7Ki
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -       0       1  41.6Ki  77.7Ki
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -       0       1  41.6Ki  77.7Ki
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.44Ti  2.74Ti     665      75  81.3Mi  9.33Mi
  raidz1                                       5.44Ti  2.74Ti     665      75  81.3Mi  9.33Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     233      53  26.2Mi  6.58Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     275      38  30.8Mi  4.66Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     238      43  26.8Mi  5.29Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     559     733  68.0Mi  83.4Mi
  raidz1                                       5.45Ti  2.74Ti     559     733  68.0Mi  83.4Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     208     342  23.9Mi  40.0Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     182     355  20.6Mi  41.8Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     191     364  22.0Mi  43.1Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     498     785  61.8Mi  91.2Mi
  raidz1                                       5.45Ti  2.74Ti     498     785  61.8Mi  91.2Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     190     384  21.3Mi  45.4Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     165     382  19.1Mi  45.6Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     205     367  23.4Mi  43.7Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     690     524  85.7Mi  55.6Mi
  raidz1                                       5.45Ti  2.74Ti     690     524  85.7Mi  55.6Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     259     241  29.5Mi  27.9Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     245     239  28.2Mi  27.9Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     255     240  28.5Mi  27.9Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     626     511  77.7Mi  58.0Mi
  raidz1                                       5.45Ti  2.74Ti     626     511  77.7Mi  58.0Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     222     246  24.6Mi  29.0Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     239     261  27.5Mi  30.7Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     214     249  24.0Mi  29.4Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     403     825  50.1Mi  96.9Mi
  raidz1                                       5.45Ti  2.74Ti     403     825  50.1Mi  96.9Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     152     402  17.3Mi  48.5Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     184     392  20.9Mi  47.1Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     135     401  15.5Mi  48.1Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     773     473  96.1Mi  48.3Mi
  raidz1                                       5.45Ti  2.74Ti     773     473  96.1Mi  48.3Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     269     213  31.0Mi  24.2Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     260     212  29.1Mi  24.0Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     280     214  32.1Mi  24.2Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     615     637  76.1Mi  64.0Mi
  raidz1                                       5.45Ti  2.74Ti     615     637  76.1Mi  64.0Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     210     279  23.8Mi  32.0Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     229     298  25.9Mi  33.8Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     235     287  26.8Mi  32.8Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     553     749  68.6Mi  76.7Mi
  raidz1                                       5.45Ti  2.74Ti     553     749  68.6Mi  76.7Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     220     335  25.3Mi  38.4Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     181     324  20.5Mi  36.6Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     197     334  22.2Mi  37.7Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     582     519  72.2Mi  58.4Mi
  raidz1                                       5.45Ti  2.74Ti     582     519  72.2Mi  58.4Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     197     249  22.0Mi  29.3Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     227     253  25.6Mi  29.4Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     205     272  23.3Mi  31.8Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     623     696  77.5Mi  75.9Mi
  raidz1                                       5.45Ti  2.74Ti     623     696  77.5Mi  75.9Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     223     324  25.4Mi  38.0Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     233     324  26.5Mi  37.9Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     227     304  26.0Mi  35.5Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     408     601  50.6Mi  68.3Mi
  raidz1                                       5.45Ti  2.74Ti     408     601  50.6Mi  68.3Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     144     292  16.3Mi  34.2Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     136     302  15.4Mi  35.3Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     161     295  18.3Mi  34.6Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     656     587  81.5Mi  63.1Mi
  raidz1                                       5.45Ti  2.74Ti     656     587  81.5Mi  63.1Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     235     270  26.9Mi  31.6Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     242     263  27.4Mi  30.5Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     251     266  28.5Mi  31.2Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     378     731  46.5Mi  79.5Mi
  raidz1                                       5.45Ti  2.74Ti     378     731  46.5Mi  79.5Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     136     346  15.6Mi  40.2Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     135     378  15.4Mi  42.4Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     127     345  14.2Mi  39.8Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     686     539  85.2Mi  48.8Mi
  raidz1                                       5.45Ti  2.74Ti     686     539  85.2Mi  48.8Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     250     225  28.9Mi  24.1Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     249     206  28.5Mi  21.9Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     244     226  27.9Mi  24.5Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     372     719  46.1Mi  82.6Mi
  raidz1                                       5.45Ti  2.74Ti     372     719  46.1Mi  82.6Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     146     348  16.3Mi  41.3Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     147     351  16.3Mi  41.3Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     132     349  15.0Mi  41.3Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     659     443  82.0Mi  45.6Mi
  raidz1                                       5.45Ti  2.74Ti     659     443  82.0Mi  45.6Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     236     211  27.1Mi  23.7Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     218     201  24.8Mi  22.9Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     248     229  28.5Mi  26.0Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------

                                                   capacity       operations       bandwidth
pool                                            alloc    free    read   write    read   write
---------------------------------------------  ------  ------  ------  ------  ------  ------
Ocean                                          5.45Ti  2.74Ti     500     752  62.1Mi  79.3Mi
  raidz1                                       5.45Ti  2.74Ti     500     752  62.1Mi  79.3Mi
    GPTE_4623BE4C-B931-42E3-B086-1AB4B7C25AD8       -       -     185     344  21.2Mi  39.0Mi
    GPTE_E438C301-7879-49CB-8E09-22B734793326       -       -     190     344  21.9Mi  39.7Mi
    GPTE_608CE13A-017D-4EE6-803F-18429C27904A       -       -     175     327  19.7Mi  36.6Mi
---------------------------------------------  ------  ------  ------  ------  ------  ------


I'd LOVE to know how this compares to an ashift=12 pool of similar/same spec.

If i'm going to rebuild my raid from scratch, then this weekend would be a good time to do it. I really appreciate your responses. I just wish I had a definitive answer or comparison from someone.

Oh. and here's my zstat (not while copying, but moments after). Not sure if this looks normal or not.

Code: Select all
v2012.09.23    161 threads        3 mounts       26051 vnodes     08:33:29
____________________________________________________________________________
             KALLOC      KERNEL/MAPS        TOTAL         EQUITY
  WIRED      21 MiB    1650 MiB/1659         1671 MiB      5.10%
  PEAK       96 MiB    1714 MiB              1810 MiB
  VMPAGE        448 (IN)        425 (OUT)        425 (SYNC)        138 (MDS)
____________________________________________________________________________
                     HITS                  MISSES
  ARC overall:        93% (1483659)            7% (98238)
  ARC demand data:    96% (218997)             4% (9050)
  ARC demand meta:    97% (423035)             3% (12959)
  ARC prefetch data:   9% (7257)              91% (70828)
  ARC prefetch meta:  99% (834370)             1% (5401)
  DMU zfetch:         94% (11539902)           6% (622081)
____________________________________________________________________________
     SIZE     SLAB    AVAIL    INUSE    TOTAL     PEAK  KMEM CACHE NAME
       72     4096     7891    19829    27720    29370  kmem_slab_cache
       24     4096    21294   118485   139779   143620  kmem_bufctl_cache
       88     4096      329     1021     1350     2970  taskq_ent_cache
      360     4096        2       20       22       22  taskq_cache
      824     8192        5        4        9     6300  zio_cache
       48     4096       81        2       83     6391  zio_link_cache
       80     4096       49    26051    26100    26100  sa_cache
      840     8192        1    27224    27225    28386  dnode_t
      216     4096     2416    49100    51516    57024  dmu_buf_impl_t
      200     4096     2711    39949    42660    54760  arc_buf_hdr_t
      104     4096     8361    25079    33440    46930  arc_buf_t
      192     4096       18        2       20      180  zil_lwb_cache
      400     4096        9    26051    26060    26060  znode_t
      512     8192     3290    34086    37376    38288  zio_buf_512
     1024     8192       29       19       48      288  zio_buf_1024
     1536    12288       21        3       24      168  zio_buf_1536
     2048     8192        5        7       12      696  zio_buf_2048
     2560    20480        7        1        8       64  zio_buf_2560
     3584   114688       31        1       32      192  zio_buf_3584
     4096     8192       88      176      264    20848  zio_buf_4096
     5120    20480        3        1        4      144  zio_buf_5120
     6144    12288        2        4        6       14  zio_buf_6144
    12288    12288        0        1        1      199  zio_buf_12288
    14336   114688        7        1        8       16  zio_buf_14336
    16384    65536        0     6532     6532     6548  zio_buf_16384
    20480    20480        0        1        1      114  zio_buf_20480
    36864   262144        6        1        7       91  zio_buf_36864
   131072   131072        0    11035    11035    11111  zio_buf_131072
______
markpaterson Offline


 
Posts: 9
Joined: Fri Oct 05, 2012 1:48 pm

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by markpaterson » Sat Oct 06, 2012 8:00 am

grahamperrin wrote:
NakkiNyan wrote:… is there a way to check … 


If the three disks in the opening post still have device numbers 1, 2 and 3 then for markpaterson:

Code: Select all
sudo zdb -l /dev/disk1 | grep ashift


Code: Select all
sudo zdb -l /dev/disk2 | grep ashift


Code: Select all
sudo zdb -l /dev/disk3 | grep ashift



OK. THIS IS INTERESTING. Maybe I am ashift=12 afterall? even though I didn't specify it in the zpool creation? (if so, how?)

i entered the commands you specified, BUT FOR MY ZFS SLICES, NOT THE WHOLE DISK (slice 1 of each disk is EFI, which as I've discovered from this forum, is always created by zpool ZEVO CE whether we like it or not. ie - there's technically no way for zpool to use the whole disk, even if you specify it in zpool create, which i did. My creation command was sudo zpool create -O casesensitivity=insensitive Ocean raidz /dev/disk1 /dev/disk2 /dev/disk3). Anyway, I digress. Here's the output from zdb…

Code: Select all
marks-mac-pro:~ mark$ sudo zdb -l /dev/disk1s2 | grep ashift
Password:
        ashift: 12
        ashift: 12
        ashift: 12
        ashift: 12
marks-mac-pro:~ mark$ sudo zdb -l /dev/disk2s2 | grep ashift
        ashift: 12
        ashift: 12
        ashift: 12
        ashift: 12
marks-mac-pro:~ mark$ sudo zdb -l /dev/disk3s2 | grep ashift
        ashift: 12
        ashift: 12
        ashift: 12
        ashift: 12


Maybe grahamperrin or someone can explain what's going on here? Do I REALLY have ashift=12? even though I did not specify it in the creation, and "zpool get all Ocean" says I have ashift=0?

Code: Select all
marks-mac-pro:~ mark$ zpool get all Ocean
NAME   PROPERTY       VALUE      SOURCE
Ocean  size           8.19Ti     -
Ocean  capacity       66%        -
Ocean  altroot        -          default
Ocean  health         ONLINE     -
Ocean  guid           8554943120831032297  default
Ocean  version        28         default
Ocean  failmode       continue   default
Ocean  listsnapshots  off        default
Ocean  autoexpand     off        default
Ocean  free           2.74Ti     -
Ocean  allocated      5.45Ti     -
Ocean  readonly       off        -
Ocean  ashift         0          default
markpaterson Offline


 
Posts: 9
Joined: Fri Oct 05, 2012 1:48 pm

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by shuman » Sat Oct 06, 2012 9:00 am

Same results here.

Code: Select all
Chriss-Mac-mini:Volumes chris$ sudo zdb -l /dev/disk1s2 | grep ashift
        ashift: 12
        ashift: 12
        ashift: 12
        ashift: 12


Whole disk doesn't show ashift value, but the slices do.
- Mac Mini (Late 2012), 10.8.5, 16GB memory, pool - 2 Mirrored 3TB USB 3.0 External Drives
shuman Offline

User avatar
 
Posts: 96
Joined: Mon Sep 17, 2012 8:15 am

cross reference

Post by grahamperrin » Sat Oct 06, 2012 9:56 am

… to a separate topic.


As promised: RAID-Z and 4K sector size (Advanced Format)
grahamperrin Offline

User avatar
 
Posts: 1596
Joined: Fri Sep 14, 2012 10:21 pm
Location: Brighton and Hove, United Kingdom

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by markpaterson » Sun Oct 07, 2012 12:18 pm

Thanks for the video link. I've watched it, and I think I get the core concept, but I'm still confused about my own setup.

If I do "zpool get all Ocean" I get "Ocean ashift 0 default"…
Code: Select all
mark$ zpool get all Ocean
NAME   PROPERTY       VALUE      SOURCE
Ocean  size           8.19Ti     -
Ocean  capacity       67%        -
Ocean  altroot        -          default
Ocean  health         ONLINE     -
Ocean  guid           8554943120831032297  default
Ocean  version        28         default
Ocean  failmode       continue   default
Ocean  listsnapshots  off        default
Ocean  autoexpand     off        default
Ocean  free           2.67Ti     -
Ocean  allocated      5.52Ti     -
Ocean  readonly       off        -
Ocean  ashift         0          default


HOWEVER, If I do "sudo zdb Ocean | grep ashift" (targeting the Pool) i get…
Code: Select all
mark$ sudo zdb Ocean | grep ashift
                ashift: 12
                ashift: 12

Why is this now 12 and not 0 as reported by zpool get all Ocean?

If I do "sudo zdb -l dev/disk1 | grep ashift" i am returned to the command prompt with no output from grep.

If I do "sudo zdb -l /dev/disk1s2 | grep ashift" (targeting a disk slice rather than the whole disk) i get…
Code: Select all
mark$ sudo zdb -l /dev/disk1s2 | grep ashift
        ashift: 12
        ashift: 12
        ashift: 12
        ashift: 12


So I'm still not sure if zfs automatically set the ashift=12 for me or not.

Something that came up in the video was that linux systems create the EFI partition automatically, which 4K aligns additional partitions (or at least, that's what I recall. I could be slightly wrong?). Is it possible that the Mac EFI partition is doing the same thing?

As I said right at the start of this thread, I have 3x 3TB WD Green drives. I *THINK* they may be using space inefficiently, which is one of the problems they talk about, with regards to 4K drives, in the video. As evidence of this, I created a .txt file containing a single character. On my startup HFS+ disk (SSD), the file size is 1byte (4KB on disk), and the same file on my zfs pool is 1byte (6KB on disk). Why is this 6KB? Does this mean that *all* files are being inefficiently stored?
Last edited by markpaterson on Sun Oct 07, 2012 12:36 pm, edited 1 time in total.
markpaterson Offline


 
Posts: 9
Joined: Fri Oct 05, 2012 1:48 pm

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by scasady » Sun Oct 07, 2012 12:29 pm

ashift=0 means the default, ie zfs not you picked a value
on my zpool which is definitely not 4k, one bytes files take 1k.
I don't know where 6k comes from.
scasady Offline


 
Posts: 45
Joined: Sat Sep 15, 2012 8:00 am

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by markpaterson » Sun Oct 07, 2012 3:45 pm

The default HFS+ block size is 4K http://support.apple.com/kb/TA37344 which explains the 4K file, I'm just curious about the reason that the same file is 6KB on the zpool.
markpaterson Offline


 
Posts: 9
Joined: Fri Oct 05, 2012 1:48 pm

Re: is ashift=12 recommended for 3TB WD Green drives?

Post by grahamperrin » Sun Oct 07, 2012 4:44 pm

markpaterson wrote:… curious about the reason that the same file is 6KB on the zpool.


I'm on a learning curve here. From parts of the 2012 ZFS Day, I'd guess that RAID-Z parity data for a less than 4K file – parity across three disks with 4K characteristics – accounts for part of the 6K.
grahamperrin Offline

User avatar
 
Posts: 1596
Joined: Fri Sep 14, 2012 10:21 pm
Location: Brighton and Hove, United Kingdom

PreviousNext

Return to General Discussion

Who is online

Users browsing this forum: ilovezfs and 0 guests

cron