9 : 08 BES: 能動型ソフトCPUクーラー

← 9‒07 p↑ もくじ i 9‒09 n →

BEY バトル・エンコーダ・ユキカゼ

2004年 6月16日
記事ID d40616

警報音が響き、白いダイアログがポップアップする。

「何だ―」
「MBMから温度警報。CPUが動作保証温度を突破。信じられない…強制冷却しているのに」
「部屋ごと冷やす。エアコン始動」
「待て、少尉。センサーの誤作動かもしれない。MBMの故障かも…」
「なぜ分かる」
「室温は18度だぞ、誤報だ、上限温度の73度を超える訳がない」
「ではspeedfanでも確認しろ」
「やっている…数値は同じだが、温度センサー側のトラブルかもしれない」
「Waveletを2枚かまして24時間連続エンコしているのだ…ありうる」
「やめろ少尉! 気でも狂ったか? こんな肌寒い部屋で冷房を最強にしたら、凍えてしまう」
「プレスコットが…暑いと言っている」

Intel Pentium 4 "Prescott" 3.4E GHz

この記事のURL


CPUの過熱を防ぐ能動型ソフトCPUクーラー

2004年 6月17日
記事ID d40617

任意のプロセスを、一定の時間割合でサスペンド/レジュームさせることで、 CPU負荷率を強制的に下げる。

https://mion.yosei.fi/BES/

この記事のURL

パブリックドメイン


【注意】SSDは使ってないと壊れやすい 用がなくても週に1度は電源を

2021年 6月 6日
記事ID f10606

「SSDは、アクセスが速く、回転部分がないので壊れにくい。従来のハードディスクより優れた新技術…」という一般的イメージを持たれている。

一方、SSDには、特有の弱点があることも知られている。そのうち「通電していないとデータが壊れる確率が上がる」という事実は、用途によっては重大な問題点だろう。

IBMサポートの資料「Flash Data Retention」によると:

「一般的なイメージとは裏腹に、フラッシュメモリー上の情報は、恒久的に保存されるものではありません。これは NAND Flash 技術の特性であり、データを長期間保存するためには、電源を入れて使わなければなりません。FlashSystem 900 は40℃以下の環境において、最大90日間まで電源オフの状態にして大丈夫です。電源オフの状態が7日間を超える場合、システムは自動的にリフレッシュ動作を行います」

言い換えると、そのような自動リフレッシュがない一般の環境では、電源オフが1週間を超えると、データ損失・破壊のリスクの増大が無視できないレベルになる。もちろん確率は低いが、イメージ的に「日常的に使っていれば、一定期間ごとに100万分の1の確率で起きる悪いイベントが、1万分の1の確率で起きるようになる(100倍のリスク)」みたいな感じかも…。この特性から、当然ながら、SSDは「週ごと、月ごとの定期バックアップ先のメディア」としては不向き。そのような用途では、古い技術であるハードディスクの方がはるかに信頼性が高い。「SSDの方が値段が高いから信頼性が高い」と誤解してはならない(衝撃に対する信頼性は高いかもしれないが…)。

確率上の話として、SSDの場合、毎日じゃんじゃん使う方が、保存されているデータは「論理的」に壊れにくい。もちろんデバイスの「物理的」な消耗は早くなるが、形ある物がやがて壊れるのは仕方のないこと。消耗品と割り切って、必要なら定期的にバックアップやクローンをするしかないだろう。「余計な消耗を防ぐため、なるべく使わないようにしよう」と考え、長期電源オフにすると、むしろ壊れるリスクが増えると思われる。

参考リンク: Will SSD lose data if left unpowered for extended period? : DataHoarder (reddit)

2021-06-07 物理的な不良セクターがあるSSDのクローン

上記「SSDは使ってないと壊れやすい」は、これで痛い目に遭った…という失敗談。

電源がオフだと、物理的にも無防備なのだろうか。何かの天罰で宇宙線でも当たったのかもしれない。

壊れたものは仕方ない。とりあえずセクター・バイ・セクターのクローンを作って、不具合のあるSSDと入れ替えておいた。

2021-07-09 具体的データ・理論的背景

【注意】SSDは使ってないと壊れやすい」への追加情報。

先端技術は急速に変化しているし、専門的なことは分からないので、間違ってるかも。あくまで話半分・参考程度に…

結論から言うと、大容量SSDは、電源オフの状態で長期間放置しない方が安全。技術とファームウェアの進化によって、この問題は次第に緩和されると思われる。

Yu Cai(米国カーネギーメロン大学)たちの2015年の論文、Data Retention in MLC NAND Flash Memory: Characterization, Optimization and Recovery と関連するプレゼンによると…

1) 保存されているデータがだんだん読み取りにくくなるのは、時間とともに、記録されている電気的データが少しずつ「抜けてしまう」から。


(画像の出典: 上記プレゼン資料)

2) 古いファイル、例えば1週間前に書き込まれたセルがあるとして、通常(?)の読み取り電圧(SSDの連続使用に最適化)でデータを取得しようとすると、エラー発生率が高くなる。デバイス自体が新しい場合、エラーが起きてもおおむね訂正可能だが、何度も書き込みを繰り返している場合(P/E Cyclesが大)、訂正可能な限界を超えてしまう。


(画像の出典: 上記論文)

縦軸がエラー発生率、横軸がデバイスの消耗度(P/E Cycles)。1番上のカーブが、連続使用に最適化された電圧。Stage-0(デバイスが消耗していない)では、エラーが起きても訂正可能。Stage-2(デバイス自体が消耗している)では、どっちにしてもエラーを救えない。問題は Stage-1(新品ではないが、普通に使える期間)。保存されているデータが1週間前に書かれて放置されているというだけで、エラー発生率が訂正可能なリミットを超えてしまう。

電源がオンになっていれば、良くできたファームウェアは古いデータを自動的に保存し直すので(リフレッシュ動作)、このような「信号が弱くなっているセル」の問題が起こりにくい。リフレッシュ動作(データを再保存)の副作用としてデバイスの消耗は進むが、デバイスの耐久性が十分に高ければ、メリットの方が大きい。

3) この論文によると、リフレッシュされていない古いデータを読み取るときは、読み取り電圧を調整するとエラーが起きにくい(1番下のカーブなど)。原理的には「読み取り電圧をセルごとに繊細に調整できれば、長期間電源オフのSSDでも、比較的エラーが起きにくいようにできる」。

…上記論文とは別の各種情報によると、次のようなことも指摘されている。

この記事のURL

パブリックドメイン



<メールアドレス>