すげー大風呂敷のような
インターネットのホームページ上などに膨大に蓄積されながら、ときには短時間で更新、削除されてしまうウェブページをきめこまかく保存して一般に公開する「平成国立インターネット図書館」(仮称)の構築に、総務省と国立国会図書館が来年度から共同で取り組むことが二十六日、明らかになった。手軽な更新作業で最新の情報内容に変わっていくさまざまなホームページ上の情報には、資料価値の高いものも含まれているためで、総務省は平成十八年度の実用化を目指す。
これって下手すると一種のDoS攻撃になりかねんような。どうやって更新を検知するんだろう。ポーリングするしかなくないか?削除されたページって、現状ではGoogleのキャッシュが主な手段になっていますね。
しかし削除されたページの利用って、どうなるんだろう。例えば名誉毀損とされて撤回されたページとか、少年犯罪で実名を晒したページとか。そういうのも全部保存されちゃって、閲覧できるわけだよな。あるいは誤って公開されてしまった個人情報とかさ。
それはいいとして、「300億円かけ1000兆バイトの巨大サーバー」って。単位をバイトにせんでいいだろ、報道なんだから。広告とかなら「2000g増量!」とかでもいいけど。
ちなみに1000兆バイトってのは。
- 1兆キロバイト (kB)
- 10億メガバイト (MB)
- 100万ギガバイト (GB)
- 1000テラバイト (TB)
- 1ペタバイト (PB)
- 0.001エクサバイト (EB)
- 0.000001ゼタバイト(ZB)
- 0.000000001ヨタバイト (YB)
となります。
うーん、さすがに1ペタバイトだと有り難みがないなあ。