categories: openSolaris

年をまたいでzfs send/receiveでファイルサーバをバックアップしてみた

結構ややこしい。慣れたり考え方を理解すれば楽勝だけど。ハマりポイントとしては以下のような感じか。

  • zfs sendできるのはスナップショットだけ。ライブのファイルシステムをコピーすることはできない。考えてみれば当然か。(コピー中にファイルシステムが変更されるとストリームとライブの整合性が失われる)
  • 2回目以降増分をzfs receiveするためには、受信側のライブファイルシステムが前回受信したスナップショットから変更されていてはいけない。これも考えてみればあたりまえ。ZFSは枝分かれスナップショットをサポートしていない(スナップショットからcloneしてpromoteすることで別ファイルシステムとすることはできるけど)。ロールバックでスナップショットに戻ることは可能。もちろんロールバックすると変更分は消える。

でも理屈が通っててわかると本当に気分がいい。ZFSがますます好きになった!順番に手順を書く。もっぱら将来の自分用に。

1. <送信側>スナップショットを取る

1
2
3
4
# zfs snapshot ore_no_tank@backup
# zfs list -t snapshot
NAME                                           USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup                                0      -  3.18T  -

詳細はOracleのZFS管理ガイドを見ればわかるが、REFERはそのファイルシステムが参照しているプール内のブロック(?)で、USEDは変更等の理由によりそのスナップショットから変更され、プール内のブロックを消費している量を指す。たぶん。

2. <送信側/受信側>zfs sendでスナップショットを送信する

スナップショットを送信する。ここではrootアカウントでやってるが、pfexecでやった方がいいのかもしれない。rootでのsshログインを許容するためにはユーザーロールを変更する(rolemod -K type=normal root)ことと、/etc/ssh/sshd_configでPermitRootLoginをyesにして、svcadm restart svc:/network/ssh:defaultする。(セキュリティが弱くなるのでちょう注意。作業が終わったら戻す方がいいよ)

1
# zfs send ore_no_tank@backup | ssh 192.168.xxx.xxx zfs receive -F ore_no_tank

-Fオプションで受信側のファイルシステムを強制的に置き換える。これ以降は受信側のファイルシステムには手で変更をくわえないようにする。といってもスナップショットにロールバックすれば元に戻るので。

送信後に受信側を見てみると、スナップショットも含めてコピーされていることがわかる。(zfs list -t snapshotしたときにUSEDに149Kのカウントされているのはスナップショット以降の変更分も一緒に受信しちゃってるのかもしれない。後ろの手順でやっている通り、一回zfs rollbackしておいたほうがいいかも)

1
2
3
4
5
6
# zfs list
NAME                       USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank               3.41T  1.93T  3.18T  /ore_no_tank
# zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup               149K      -  3.18T  -

3. <送信側>再度スナップショット(増分スナップショット)を取る

容量が大きいファイルシステムや、複数で共有しているファイルシステムの場合、zfs send/receiveでコピーしている間にもいろいろファイルが作られたり消されたりする。その度にファイルシステム全体をコピーし直すのではいつまでたってもバックアップ先がバックアップ元と同期せずバックアップの意味がない。再度スナップショットを取って、差分だけバックアップ先に送るようにすればより頻繁にデータをバックアップできるチャンスが増え、より最新のデータに復元できたり、より精度高くデータを復元できる可能性が高まる。(例えば”先週のデータ”ではなくて、”昨日の15:30時点のデータ”とか)

送信側で再度スナップショットを取る。

1
2
3
4
5
# zfs snapshot ore_no_tank@backup2
# zfs list -t snapshot
NAME                                           USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup                            8.68G      -  3.18T  -
ore_no_tank@backup2                               0      -  3.18T  -

前回スナップショットを取ってから、8.68GB分の変更が発生していることがわかる。

4. <送信側/受信側>zfs sendで増分のみを送信する

再度スナップショットを送信する。送信側で”-i”オプションで増分計算元を指定していることと、受信側で”-F”オプションを外していることに注意。

1
# zfs send -i ore_no_tank@backup ore_no_tank@backup2 | ssh 192.168.xxx.xxx zfs recv ore_no_tank

増分を送信後に受信側の状態は以下のようになっている。増分のスナップショットが正しく展開されている。

1
2
3
4
5
6
7
# zfs list
NAME                       USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank               3.42T  1.92T  3.18T  /ore_no_tank
# zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup                  8.67G      -  3.18T  -
ore_no_tank@backup2                     0      -  3.18T  -

zfs send/receiveした時に以下のようなエラーが出たら、受信側のファイルシステムが変更されている。zfs rollbackでスナップショットに戻ることで解決できる。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
<送信側>
# zfs send -i ore_no_tank@backup ore_no_tank@backup2 | ssh 192.168.xxx.xxx zfs receive ore_no_tank
cannot receive incremental stream: destination storage has been modified
since most recent snapshot
<受信側>
# zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup               149K      -  3.18T  -
# zfs rollback ore_no_tank@backup
# zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT
ore_no_tank@backup              1.50K      -  3.18T  -
<送信側>
# zfs send -i ore_no_tank@backup ore_no_tank@backup2 | ssh 192.168.xxx.xxx zfs receive ore_no_tank
# (←成功したので何も出ない)

Happy ZFS !

今日はbindの設定を変更して、同じホスト名の名前解決に違うIPアドレスを返すようにした

DynamicDNSを使って外出中もiPhoneから家のIMAPサーバにアクセスするようにしていたが、なぜか家に帰って家のLANのプライベートIPに切り替わるとIMAP接続が失敗するようになっていた。IMAPサーバにふっているIPアドレスを指定すればアクセスは成功する。いちいちIMAPサーバ設定変更するのが面倒なので、同じホスト名で外からはグローバルアドレス、中からはプライベートアドレスを返すように、家のbindの設定を変更した。

/etc/named.conf

1
2
3
4
5
zone "saba.dyndns.org" {
 type master;
 file "saba.dyndns.org.zone";
 allow-update { none; };
};

/var/named/saba.dyndns.org.zone

1
2
3
4
5
6
7
8
9
$TTL    86400
@               IN SOA  localhost root (
 2010120802              ; serial (d. adams)
 3H              ; refresh
 15M             ; retry
 1W              ; expiry
 1D )            ; minimum
 IN NS           localhost
@               IN A            192.168.xxx.xxx

これでsvcadm restart svc:/network/dns/server:defaultで有効になる。

たぶんあまり正しいやり方ではないんだろうけど・・・。

参考:旧@IT会議室・LinuxSquare 「BINDでゾーン内の一部のノードをフォワード」

今日は自宅のファイルサーバをラックマウント型に搭載し直した

これを使った。マザーボードやOSは以前のままでOpenSolarisで。zfsが堅牢で堅牢で幸せです。Fedora+XFSのころの苦労が嘘のようだ・・・。うまく言いづらいけどLinuxは細かいところで安定性がないなと最近思う。ということを昔某勉強会の懇親会で話したら「ウチはCentOSで5年くらいノントラブルですよ」という話も頂いていたり。やっぱり自分で経験していないとなかなか切り替えられないなあ現状に満足していると特に。 でもリムーバブルシャーシのファンがうるさくてかなわん。静音化したいなあ。こういうのでopensolarisでzfsなら即買いするんだが。Nexentaあたりが出してくれないもんだろうか。

それにしてもscreenコマンドが便利過ぎる

いままではnohup command > log 2>&1 &とかしてたけど、screenコマンドを思い切って使い始めてからあっというまに手放せなくなった。出かける時には[Ctrl]+[a],[d]でデタッチしておいて、帰ってきたらscreen -rで元の画面を呼び出せる。超便利。 @IT: ターミナルを切り替えて使えるscreenコマンドとは

flybackは過去のバックアップを消すのがめちゃくちゃ時間がかかる

きっかけはバックアップ先のzfsボリュームがフルになったので、昔のものを減らそうかなと、rm -rf ./2009*とかしたら3日経っても終わらないorz。別にそんなに大層なほどやってないんだけどなファイル数30,000弱、ディレクトリ数3,000弱のホームディレクトリなんだが。2009年8月〜2009年12月の毎日2時間に1回なんで、12*305(30000 or 3000)で5,400万ファイル(ほとんどがハードリンク)、540万ディレクトリか。rmのパフォーマンスが悪いだけなんだろうか?

openindiana.org

http://openindiana.org/ 出るべくして出たという感じ [911 0:29追記]・・・と思ったけどページ見るとほとんど何もないし誰がやってるかもわからないしライセンスも不明だし怪しい。全ては13日になってみないとわかんないなこりゃ

Does the Fate of OpenSolaris Tell Us Where Unix Is Headed?

http://www.enterprisenetworkingplanet.com/linux_unix/article.php/3901946 読んだ。既にFree(as a Beer)のUnixってBSD一択なんだなぁ。商用ですらAIX, Solaris, MacOSXでしか選択肢が無いって。

今日は久しぶりに時間があったのでIllumosのAnnouncement PDFを読んだ

http://www.illumos.org/attachments/download/3/illumos.pdf 自分用チラシの裏 * ディストロじゃないですよ。でもブート用のISOは配りますよ * .debベース?(IPSじゃない?でもディストロじゃないんだよね・・・?) * BSD or MIT?

今日は自鯖環境を復活させた

Sun公式リポジトリだけでなんとかするようにした。安定性重視。入れたのはpostfix, dovecot, samba, dhcpd, bind, fetchmail, procmail, virtualbox。rootディスクのバックアップもちゃんと取るようにした。 一つ勉強になったのは、zfs upgradeしたボリュームをインポートできなくなること。むやみにupgradeするのも考えものだな。

今日はZFSがサイレント破損をリカバリする様を垣間みて惚れ直した

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
  pool: longterm
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://www.sun.com/msg/ZFS-8000-9P
 scrub: none requested
config:

        NAME         STATE     READ WRITE CKSUM
        longterm     ONLINE       0     0     0
          raidz1     ONLINE       0     0     0
            c9t0d0   ONLINE       0     0     2
            c10t0d0  ONLINE       0     0     6
            c10t0d1  ONLINE       0     0     3

USB接続されたディスク上のRAID-Zでデータリカバリされた様。ZFSに改めて惚れ直す。かつUSBディスクって怖いよなと。よくあんなの普通に使えるよなと。今でも使ってるけど。

今日はリポジトリサーバが壊れた

LVMでディスク全体を追加して再起動したらLV再構成できず起動してこなくなった。現在データ修復中。I/O Intensiveな作業はどうしても待ち時間が多くなる。しょうがないからバイトヘルでもするか。 ・・・そういえばzfsってその辺のメタデータ管理ってどこでやってるんだ?と調べたら、vdevの先頭とお尻に4つ書かれるようだ(PDF注意)。パーティションテーブルはいじってないと。やっぱzfsがいいなあ。

Solaris 10 no longer free as in beer, now a 90 day trial

ArsTechnica: Solaris 10 no longer free as in beer, now a 90-day trial 早速換骨奪胎が始まったか・・・Solaris Fanとしては誠に遺憾

今日は自鯖のバックアップをCrashPlanで取り始めたら初回バックアップ完了まで8ヶ月とか出て吹いた

病み上がりで調子悪い。 CrashPlan AmazonS3高くて話にならねーよとか思ってたら、米国ではいろいろあるんですね。大体月$5で上限無制限ってのが相場って感じか?どいつもこいつもWindowsとMacだけに対応のなかOpenSolarisにも対応するイイところということでCrashPlanをチョイスしてみた。が、いざバックアップを始めて見ると300kbps程度しか出ず900GBのバックアップ完了まで8ヶ月とか出るので絶望して旧自鯖の750GBx4をZFSで組んでrsyncして心の平穏をえる。”ZFS loves cheap disks.”(PDF注意) そもそもAmazonですら1Mbps程度しか出ないしプレミアムサービスであってもそんなに幸せにはなれないかもしれない。Googleなら帯域は何とかなるかもしれないけどバカっ高だし。日本国内にCrashPlan Centralの代理店作るだけでもだいぶ幸せになるんだけど誰かやらないかなあ月980円容量無制限程度で。俺バイトしてもいいかも。こういうの作ってもいい。 [21:08追記] 国内ではkeepitというサービスがほぼ同等だがやっぱりWindowsとMacしか対応していない。Linuxは近日リリース予定。ぜひOpenSolarisにも対応してほしいものだ。というか余計なお世話かもしれないがTivoliなんか使っていて採算が取れるんだろうか・・・? [25:06追記]そういえばこんなもの読んでてふと思った。ネットワーク流量の不均衡が問題の源泉なのであれば、こんなところとかけしかけて現地法人にこういうやつのバックアップサーバ置いて、自動バックアップさせるようなことすればあっという間に問題解消できるんじゃないか?とか。毎週日曜の21時頃からかの国に大量のトラフィックが発生して、よくよく解析するとみんなおんなじで何だよこれ・・・みたいな妄想をしてみた。

今日はOpenSolaris Hot Topics Seminarに参加した

OpenSolaris Hot Topics Seminar ~ 新春 IPS 特集! パッケージシステム「IPS」対応のパッケージを作成して、みんなでコントリビュータ化計画 ~ Fedoraと比べてもOpenSolarisのパッケージコントリビュートは敷居が低い!瀧さん渾身のプレゼンすごかった!フォントもすごかった!俺もパッケージャになるぜなるぜ俺は!だがまずは自宅にIPSリポジトリ立てるところからだな。 あとVirtualBoxでVM動かしたままiso入れ替えたり、netのNAT/ブリッジ切り替えられること初めて知った!やってみたら確かにできるようになっててビビった!つーかわからず使ってましたサーセン・・・ みなさんグッドスピリッツの持ち主で俺もすっげーモチベーション上がりました。俺もこういうナイスメンになりたいなあ!努力するぜ。

謎な挙動をしている

smbでマウントしたディレクトリでlameでmp3変換スクリプト流してると、単独ファイルのはずが同じ名前で全部ディレクトリに変化したり、全然違うディレクトリの内容を表示したりする。一回いっこ上のディレクトリに上がって戻ってくると正しく表示されるようになる。おかしいけど再現条件がよくわからず。なんかこう、少し不安になる。 ・・・と思ったら再現条件わかったっぽい。別のターミナルで同じディレクトリに移動してlsするとそうなるっぽい。っぽいが、わからん。

今日はVirtualBox上のOpenSolarisで音を出した

いろいろ参考にした。まとめるとこんな感じか。ハードウェアはMacbooc。Intel ICH AC97。VirtualBoxの設定では、ホストドライバはCoreAudio、コントローラはICH AC97になっている。

  1. pfexec pkg uninstall SUNWaudiohd
  2. リブート
  3. ここから”Solaris 1011 (x86/AMD64)“用のpkgをダウンロードする
  4. 既にossパッケージが入っているようならpkgrm ossして、リブート
  5. で、pfexec pkgadd -d oss-solaris-v4.2-2002-i386.pkg
  6. pfexec rm -f /etc/rc3.d/S89oss
  7. 再起動
  8. 再起動後デバイスドライバユーティリティで見ると、oss_ichデバイスドライバでオーディオデバイスが見えてる。一般ユーザでosstestすると音が鳴るはず
  9. 一般ユーザでgstreamer-propertiesを開く
  10. 出力をいろいろ変えながらテストボタンを押すとなんか音が出る
  11. パネルの音量調節はなんかうまくリンクしてないので、一回削除してはり直す

て感じか。システム更新すると鳴らなくなったりするのでそのときは上の手順をやり直し。

いままでFedoraだと音は出るけど遅くなったり早くなったりと残念クオリティだったけど。これだけでOpenSolaris使ってみる気出てくるわ〜。次はaudaciousだな。

今日は東京 OpenSolaris 勉強会に出席しました

東京 OpenSolaris 勉強会 最初のうちは緊張していましたが、講演者の方の気さくさに打ち解けていつのまにか熱く語り合う会になりました(時間が押し押しになってしまいましたが・・・)。間口の広さと懐の深さ、久しぶりのディープな内容に大満足です。うまうま!また次回も出席したいと思います。

ZFS dedupキタコレ

スラッシュドットジャパン:ZFSに「重複排除機能」が実装される Jeff Bonwick’s Blog:ZFS Deduplication Akira Ohsone’s Weblog:ZFS dedup Akira Ohsone’s Weblog:zfs dedup 2 全く近年のSunの開発能力は異常。使ってみるのは少し先になりそうだけど。 ふと思ったんだけどblock level dedupってことはdedupされたblockが破壊されたら結構被害甚大なのではなかろうか。ハードウェア的に言うところのSFPになるので恐いといえば恐いような。SHA-256チェックサム&ZFS mirrorでいいじゃんって話は知ってるんだけど。高いし。

OpenSolarisで今何のCPUを使っているのか見る

Linuxだと/proc/cpuinfoで見れるようなやつ

1
2
3
4
$ psrinfo -vp
The physical processor has 2 virtual processors (0 1)
  x86 (GenuineIntel 10676 family 6 model 23 step 6 clock 2500 MHz)
        Pentium(r) Dual-Core  CPU      E5200  @ 2.50GHz

今日はopenSolarisにffmpegを入れようとするも失敗した

あーこんなことならVT対応のCPUにしておけばよかった。とにかく負荷のかかる処理は鯖側にオフロードしたい・・・

今日はEee PC 4G XにSSDを追加した

会社の同僚からもらったEeePC初代の内蔵SSDは4GBなので、インストールしようとすると結構ぎりぎりアウトなので、SSDを追加してみた。購入したのはBuffaloのSHD-EP9M32Gcimg0820 上の写真の無線LANモジュールの右側がMini PCIeだけど、初期型のEee PCではここにはパターンがあるだけでコネクタはない。なのでコネクタを通販で購入。1個300円だった。(購入元:aitendo) パターン上には少し半田がのっているので、コネクタを乗せて、上からこてで少し押し付けると半田が溶けてコネクタの足と融着する。半田が余り気味の時は半田の吸い取り線を上に乗せて、こてで押し付けると余分な半田を吸い取ってくれた。 以下の写真がBIOSで認識されているSSD。 cimg0823 で、Opensolaris 2009.06 Previewをインストール。使用感は以下のような感じ。 振り返って。 * 32GBは高い。16GBでよかったけど、初めてなのでここにはリスクをかけたくなかったなぁ、と * Atomではないネットブックってサポートしてる鳥がそんなにないので。新しく買うのももったいないし

Toshiba OpenSolaris Laptops

OpenSolarisのページより。公認モデルだから動作保証が(たぶん)あるし。というかプレインストールだし。1年のサポート付き。ハードウェアは3年保証。一番安くて$1,000くらいだからそんなに高いモデルでもない。東芝&Sun面白いことしてる!日本でもこういうことやってほしいな!

新家鯖

Opensolarisで組んだ。ハードウェア構成は以下のような感じ。合計75,000円くらい。17.9円/GB。消費電力はざっくり60W程度。う〜ん。とりあえずAmazon S3使うよりは安いかも?

こんな感じ

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
root@saba:~# cat /etc/release 
                         OpenSolaris 2009.06 snv_111 X86
           Copyright 2009 Sun Microsystems, Inc.  All Rights Reserved.
                        Use is subject to license terms.
                             Assembled 27 March 2009
root@saba:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
rpool/ROOT/opensolaris-3
                      103G  4.1G   99G   4% /
swap                  2.0G  368K  2.0G   1% /etc/svc/volatile
/usr/lib/libc/libc_hwcap1.so.1
                      103G  4.1G   99G   4% /lib/libc.so.1
swap                  2.0G   36K  2.0G   1% /tmp
swap                  2.0G   60K  2.0G   1% /var/run
rpool/export           99G   19K   99G   1% /export
rpool/export/home      99G   19K   99G   1% /export/home
rpool/export/home/kiuchi
                       99G   88M   99G   1% /export/home/kiuchi
rpool                  99G   76K   99G   1% /rpool
storage               4.1T  2.5T  1.6T  61% /storage
backups               406G   21K  406G   1% /backups
backups/flyback       225G   24G  202G  11% /backups/flyback
backups/timemachine   225G   28G  198G  13% /backups/timemachine
root@saba:~# zpool list
NAME      SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
backups   464G  51.7G   412G    11%  ONLINE  -
rpool     111G  8.41G   103G     7%  ONLINE  -
storage  5.44T  3.23T  2.21T    59%  ONLINE  -
root@saba:~# zpool status
  pool: backups
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        backups     ONLINE       0     0     0
          c6d0      ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c3d0s0    ONLINE       0     0     0

errors: No known data errors

  pool: storage
 state: ONLINE
 scrub: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        storage     ONLINE       0     0     0
          raidz1    ONLINE       0     0     0
            c4d0    ONLINE       0     0     0
            c4d1    ONLINE       0     0     0
            c5d0    ONLINE       0     0     0
            c5d1    ONLINE       0     0     0

errors: No known data errors
  • さようならja_JP.eucJP!
  • rsync3は速いな!差分なければ2TB5分で同期する!

ipnatとipfilterを設定する

久しぶりにこってりハマった。未だに設定が決まりきっていないかも。とりあえず家のLANから外に出て行けるようになった。ipmonとか見てると日が暮れる。楽しいけど。 * なんかぐぐって出てくるipfやipnatの設定と逆のような気がするのは俺だけ? * やたらと45097/udpにアクセスしてくるのは何?とりあえず曖昧な受け入れはしていないのではじきまくってるけど

dhcp servicesを入れる

パッケージマネージャでSUNWdhcsを入れる dhcpmgrを使う(コマンドでやる方法もあるかもしれない) Wizardが開くので、言われた通りに設定する Macrosタブを見ると、項目ができているので、[Edit]-[Propaties]でいろいろ設定する(DNSサーバのアドレスとか、いろいろ。)

bindを入れる

入れるというか、既に入っている(SUNWbind) /etc/named.confを作る ゾーンファイルを作る(俺の場合は/var/named以下) rndc-confgen > /etc/rndc.key rndc.keyのoptions部分をコメントする(ここはよくわからない。named-checkconfで指摘されたことを直しただけ) svcadm enable svc:/network/dns/server(実際にはGUIでやった)

sambaを入れる

パッケージマネージャから、SUNWsmba, SUNWsmbs, SUNWsmbskrを入れる 多分1回再起動しないといけない(カーネルモジュールが組み込まれない?) /etc/sfw/smb.confを設定する svcadm enable svc:/network/samba(実際にはGUIでやった) svcadm enable svc:/network/smb/server(実際にはGUIでやった) smbpasswd -a <ユーザ名>でユーザを追加する

dovecotを入れる

groupadd -g 204 dovecot useradd -u 204 -g dovecot dovecot パッケージマネージャ(Blastwave)からIPSdovecotを入れる /opt/csw/etc/dovecot.confを設定する svccfg import /opt/csw/var/svc/manifest/network/dovecot.xml サービスマネージャからdovecotを開始する(まだコマンドでのやり方がわからない・・・)

postfixを入れる

groupadd postdrop useradd postfix パッケージマネージャ(Blastwave)からIPSpostfixを入れる /etc/opt/csw/postfixの下の設定ファイルを設定する /etc/opt/csw/postfix/post-installの一部がおかしいのでコメントする #for path in “$html_directory” “$readme_directory” #do # case “$path” in # /*) ;; # no) ;; # *) echo $0: Error: \“$path\” should be \“no\” or an absolute path name. 1>&2; exit 1;; # esac #done svccfg import /opt/csw/var/svc/manifest/site/cswpostfix.xml サービスマネージャからpostfixを開始する(まだコマンドでのやり方がわからない・・・)

しぶといなさすがソラリスしぶとい

100時間絶賛rsyncマラソンの最中にNICがハングするこういうことはまれに良くあるがカカッっとケーブル抜き刺しで即復活見事な仕事だと関心はするがどこもおかしくはない そらリスが最強に強いことは確定的に明らかでありリアル世界よりも充実したソラリス生活が認可される。 ・・・ちょっとやってみたかった。Solaris結構気に入ったかも。rsync3も。incremental file listサイコー!

今日はbonnie++でファイルシステムのベンチマークをしてみた

bonnie++の勉強をかねて。0.8.13やってるときに、OpensolarisのファイルIOが妙に速いなぁと思っていたので具体的に何がどれだけのものなのかをやってみた。対象はFedora10, FreeBSD7.1, Opensolaris200811。 結果はこんな感じだった。(PDFファイル)元のExcelファイル。 特にZFS最強伝説というわけでもなく。Fedora(ext3)が特に遅いというわけでもなく。う〜ん。まあいいか。ファイルシステムに萌えるって難しいな・・・。