吉岡さんの日記より。
悪太郎の奴、こんなこと言ってたのか。
ちなみに、うちのサーバなんだけど、今年はPUEはほぼ1.0で乗り切りました。
元々、いかにして無駄な電力を使わないかということを考えて設計したものなので、PUEは限りなく1に近付ける努力をしている。だから、
完全空冷
にして、エアコンも当然使ってない。エアコンを使うとPUEが1を超えるわけで。
「ほぼ」と書いているのは、換気扇を追加したから。と言っても、12cmファンを6個部屋の窓につけただけなんだけど。
原理は
サーバパーツは50度くらいまでは正常に動く
ということ。だから、この温度を超えさせなきゃいい。何も「室温20度」とかにする必要はない。
冷やし方にもよるけど、だいがいファンの強さは吸気温と廃気温の温度差は10度くらいにするもの。それよりも大きければ、ファンは弱いと思った方がいい。だから、普通にやっておけば、東京の夏の気温くらいなら、ちゃんと風回してやれば50度は超えないということ。だから、「裸族」にしてファンで風送りまくっている。
「換気扇」をつけたのは、室温を上げないため。室温を外気温と同じにするように、換気扇を回す。これは実は結構頑張ってやらないと、すぐ上がってしまう。
もちろんそうするためには、機器の効率も重要。機器の発熱が多いと、それだけ冷やさなきゃいけないんだから。PUEの分母は機器の消費電力だから、消費電力それ自体はPUEを小さくする方向に効くけど、これを小さくしないと冷やすのにコストがかかる。だから古いAMDのCPUは極力廃棄。新しいIntelの45nm系のCPUにした(E8400)。
こういった「熱をこもらせない」という工夫だけで、熱的な理由でサーバが壊れるような温度にはならないで済む。まぁファイルサーバがAMDのままだったとか、ケースに入れていたということもあって、そいつの電源が飛んでしまったのだけど、メインサーバの「裸族ヒルズ」はビクともしなかった。
電解コンデンサの寿命とか、磁性体の保持力とかは温度の関数になるので、むやみに高温にするのは好ましくない。ファイルサーバがとんだのも、多分電解コンデンサの寿命を縮めたからだと思う。でも、そういった「上限」をちゃんと意識してやれば、日本くらいならエアコンなしでもサーバは壊れない。だいたい、サーバなんて
3年持てば御の字
なんだから、逆にオーバースペック的に冷やす必要もない。
PS.
この方法、どうやらソフトバンクでも研究しているらしい。
ソフトバンクIDC「アジアン・フロンティア」、排熱は冷やさない
立地のことを考えると、アジアン・フロンティアの方が有利であることは確か。