So-net無料ブログ作成

ドローンの問題点 [セキュリティ]

昨日ドローンの事故について書いたが、じゃあ具体的に何が問題なんだ、と思う人が居ると思うので記す。


私が「ドローンそのもの」に関して問題と思う点は3つ。


一つ目は“電波による無線操縦”であるという事。
実際のところ、昨日の記事のように電波の状態が悪くなって事故になる
ケースは少なくない。何故なら利用されている無線通信自体が無免許で
利用出来るオモチャ向けのものなので、軽い電波障害や混線などで簡単
に通信が途切れてしまう。
ドローンには「コントロール不能になったら自動で定位置に帰還する」
などの対策が施されている場合もあるが、この程度ではなんの担保にも
ならない。その理由は二つ目に記す。


二つ目。ドローンは既存の航空機のような性能維持と安全対策を施す事が
不可能であるという事。
運用面でそこまでコストをかけたら、今のような使い方は出来ない。
何よりもコンピュータプログラムによる自律制御である以上、バグを無く
す事は不可能なので、コスト的に見合わないデバッグが行われない性格の
ドローンはそういう意味でも危険である。
また多くは機械的な点検整備も行われないから、その面でも危険だ。
性能維持と安全対策を保証する手段がない限り、オモチャの域を出ること
は不可能なのである。


三つ目は“簡単であるからこそ危険である”という事。
オモチャとしてならば許容出来るが、それ以外でこの問題は致命的だ。
ドローンは入手から運用まで非常に簡単だ。だからこそ人は油断する。
ドローンを取り巻く世界の現状を見れば、これは一目瞭然だ。
油断はありとあらゆる事故の元凶になる。
これは一つ目と二つ目の問題がクリアしたとしても絶対に解決できない。
根拠は現在のクルマ社会。それと同じ事が、今ドローンでも起きている。
さらにクルマ社会より深刻なのは、“使用者自身にはなんの危険も無い”
という事。
どこか離れた場所で墜落しても自分はケガをしないという事は、安全に
関する油断に歯止めがかからないという事である。


以上を理由に、私はドローンの危険性を唱える。
この三つの問題が根底にある以上、ドローンの登録制や免許制、或いは飛行地域の制限などは極めて厳しくすべきだ。だがそれでもなお、事故をゼロにする事は不可能だろうと予言する。

三つ目の理由で書いた事の補足になるが、誰でも簡単に入手して簡単に飛ばせるという事は、自分がこれからする事が周囲にどのような影響を与えるか予測出来ない人間が利用する可能性を広げるものだ。昔ながらのラジコン模型であればただ飛ばすだけでも難しい(私は経験者だ)。最初は何度も墜落させるので事故に至るまえに墜落の経験が出来るから、人の往来がある場所で飛ばそうなどとは考えただけでも怖くなるはずだ。しかしドローンではそうはならない。


まあ、ドローンは自宅の屋内か庭の中、或いは既存のラジコン飛行機のように決められた飛行区域内でのみ使用を許可するべきだと私は思う。

姿勢が自律制御でコントロールが簡単である事を省けば、既存のラジコンヘリやラジコン飛行機と何も変わらない(というか固定翼のドローンだって存在する)のだから、同じルールを適用すべきなのだ。


スキーW杯大会中ドローン落下で [セキュリティ]

スキーW杯大会で墜落したドローンがトップスキーヤーにあわや激突
http://gigazine.net/news/20151224-skier-almost-hit-by-drone/

こうなる事は初めから予想出来た事だ。
以来数多の類似事故が起きていて、事故だけでなくプライバシーやセキュリティ、或いは国家の防衛問題にまで発展しているドローン。

私は当初から強い警戒心を持ち、ドローンの運用と運用上のルール作りには慎重に慎重を重ねるくらい当たり前だと某所でも発言し続けていた。


しかし現実にはこのような問題を認識しながらもドローンの濫用を止める有効な手立ては成されていない。
アメリカの登録制度や各国或いは各地域での自主的な飛行制限が出始めているが、この程度では生温いにもほどがある。

アマゾンなどのドローンによる無人配達など、はっきりいって論外だ。
どうも彼らは、やったもの勝ちの金儲け最優先で、問題が出たら後から対処すれば良いと思っているらしい。しかし有効な安全対策が入るまでの間に怪我をしたりプライバシーの侵害を受けた人の被害はどう回復しろと言うのか。

今回の例では、もし選手に当っていたら、或いは当らずとも競技に影響が出ていたとしたら、その損失を回復する事は不可能だ。
当然、この「ドローン落下による事故」は場合によっては死亡事故にもつながる。
もし人死にが出るような事故が起きたら、ドローンを無条件で肯定するバカどもはどう責任を取るつもりなのか。


目先のメリット(利益)ばかりを喧伝し、問題点を隠して消費者を煽る連中はまさに社会悪であると思う。

Windows update でハードディスク壊れる [OS]

昨日知人に頼まれて、知人宅にあるデスクトップパソコンを無線LANでネットワークに接続する作業を行った。

無線LANの端末を設置し、デスクトップパソコンに無線LANのアダプタを取り付け、デバイスドライバをインストールし、接続の設定を行ったところまでは良かった。
が、2年ほど使用していなかったのでセキュリティソフトやブラウザ、そしてWindowsそのものがまったくアップデートされておらず、このまま使うと危険と判断。持ち主に了解を得てWindows updateを行ったところ、数時間経っても「更新プログラムを探しています」から進まない。こうした事はいまや当たり前の現象なので、このような場合は処理が終わるまで放置するしかない、と知人に断って電源を入れたままその日の作業を終えた。


そして今日。
知人宅を訪れるとハードディスクのアクセスランプが点灯(点滅ではない)したまま、モニタが待機状態になっている。電源管理でスリープにならないようにしておいたから、モニタが消えているだけと思いマウスを操作するが反応しない。一通りやれることをやっても復旧しないので、仕方なく電源ボタン長押しで電源を落とす。

電源が落ちたところでもう一度電源を入れると普通にWindowsの異常終了しましたという画面が出るのでSafe modeで起動を選んだところ、何かのデバイスドライバの読み込みの所で止まった。それ以前にそこにたどり着くまでにファイルの読み込み速度が遅いので、これはハードディスクに異常が出ていると判断。強制終了してハードディスクを本体から取外し、自宅に持ち帰った。

自宅に帰ると、ハードデスクのエラーをチェックするために持ち帰ったハードディスクをUSB-SATA変換装置で自分のパソコンに接続する。しかし何時まで待ってもマウントしない。USBのデバイスアイコンをクリックすると一応パーティションは認識されているようだ。が、このままでは埒があかないので別のパソコンに問題のハードディスクを接続しなおしてPuppy Linuxで起動し、マウントを試みる。するとマウントはするが中身を表示するのにやたらと時間がかかる。
ここで私は大きな間違いをしている事に気付いた。
要するに、ここまでの作業は単に被害を拡大していただけだった。


次に私が取った行動は、HDD Regeneratorで不良セクタを回復する作業を行う事だった。
これまでの挙動から不良セクタが発生している事が明白だったからだ。実際HDD Regeneratorで修復作業を始めると、ほどなく67個もの不良セクタを修復してくれた。

・・・それから現在まで、すでに800個を超える不良セクタの修復を行っている。この作業は現在進行形で、何時不良セクタの集団から抜け出せるのかまったく予想できない。とりあえず2~3日は放置するつもりだが・・・それで終わらなかったら、色々と諦めなければならないだろう。


それにしても近頃のWindows updateはパソコンに対する負荷が異常だ。
Micro$oftのサーバーからアップデートファイルをダウンロードする前に、パソコンに適用されているアップデートファイルを調べて必要なものだけダウンロードする作業が必要である以上、ハードディスクに保存されたWindows updateのデータベースを検索する事は当然ではある。だがその作業がいつまでも終わらない。数年間まったくアップデートしていないパソコンの場合は尚更時間がかかり、仮にその間バックグラウンドで動作するプログラムからハードディスクに対するアクセスがあればその負荷は相当なものだ。

だとすれば、ハードディスクが壊れるのも当然だと思われる。


12/24追記
不良セクタの修復が終わった。結局1250余りの不良セクタ修復を行ったが、その全てが回復はしなかった。元々HDD Regenerator自体が“60%の確率で修復出来る”と謳っているし、通常不良になったセクタの回復は
望めないのだから仕方が無い。

だが修復前はマウントすら困難だったものが普通にマウント出来るようにはなった。
おかげでプライベートなファイルのほとんどを回収できたので、今回の案件はハードディスクを交換して改めてOSをインストールしなおす事になるだろう。


メインメモリのMRAM化はどうなってるの? [ハードウェア]

先日CPUのキャッシュにMRAMを採用した技術についての記事を書いた。

キャッシュメモリのMRAM化
http://17inch.blog.so-net.ne.jp/2015-12-11


が、肝心のメインメモリが出てこない。
2013年にはこんな記事が出ていたのに!

スピン注入式の新型MRAMがいよいよ製品化、2015年にはギガビット品が登場へ
http://eetimes.jp/ee/articles/1301/08/news020.html


もう2015年は終わってしまうよ。


ただ、MRAMについてはいまだ量産に適した技術が確定していない。
色々なところで様々な物質や制御方式の研究が続けられている状態だ。

もしMRAMがメインメモリとしてDRAMから置き換えられたら、パソコンの性能は飛躍的に向上するし、不揮発メモリなので電源を落としても再起動に必要な時間がスリープからの復帰と変わらなくなる。そのうえDRAMに必要なリフレッシュ動作が不要な分消費電力も減るので、特に携帯端末の消費電力削減には効果的だろう。
(ただし電源を落としてもメインメモリの内容がそのままというのはセキュリティ上の問題があるが)

何時になるのかまだまったく予想できないが、早く出てきて欲しいと思う。

キャッシュメモリのMRAM化 [ハードウェア]

大昔のCPUは、CPUとメインメモリの動作クロックが同期していた。例えば10Mhzで動作するCPUには10Mhzで動作するバスの先に10Mhzで動作するDRAMが接続されていた。従ってCPUがプログラムをメインメモリから呼び出す場合タイムラグはほとんど無かった。
しかし、CPUがどんどん高速化する一方で、メインメモリに使用される“DRAM”の速度はCPUほど高速化出来なかった。CPUの高速化に対し遅れるDRAMの速度は、コンピュータ全体の性能向上の足を引っ張るようになる。
そこでCPUと同期して動作する高速なメモリーをCPUに内蔵させ、CPUとメインメモリーの速度差を埋める方法が考案される。
これが“キャッシュメモリ”だ。

cache.png
キャッシュメモリの概念図。詳しくはこちらの記事を参照。

1980年台後半になると、パソコン用CPUにキャッシュが搭載されるようになる。
例えば1989年、Intelの“i486”には8KBのキャッシュメモリが搭載された。
その後CPUのさらなる高速化に伴い外付けの二次キャッシュが採用され、さらに二次キャッシュのCPUダイへの統合、3次キャッシュの搭載と進んで今日に至る。


“キャッシュメモリ”は通常“SRAM”という種類の半導体メモリで構成される。(近年は3次キャッシュのみDRAMとする例もある。)
このSRAMはCPUと同じクロックで動作出来る反面、データの状態を維持するためには常に電流が流れ続けるため消費電力が非常に多い。またSRAMを構成するトランジスタの数が6個と多く、高性能化のためにキャッシュを多く搭載するとCPUのダイ面積もその分大きくなってしまう。

現在のパソコン用CPUの多くは、1次キャッシュと2次キャッシュの面積だけでCPUコアの1/3~1/2ほどを占め、そこに3次キャッシュが追加される場合には1/2~2/3以上がキャッシュメモリの面積で占められている。この面積に集積されたトランジスタに常に電流が流れているのだから、現在のCPUの消費電力はリーク電流を考慮しない場合、半分以上がキャッシュメモリによって消費されている事になる。


そこで今回の本題になる、MRAMを利用したキャッシュメモリの登場だ。
以前よりこの“キャッシュメモリの消費電力”を問題視していた人達は、キャッシュメモリをSRAMやDRAMのような揮発性メモリを不揮発性メモリに置き換えようと研究を続けていた。SRAMに代わるキャッシュ用メモリの候補は、今回のネタ元の記事に登場する東芝の場合“MRAM”だった。

“MRAM”の特徴は半永久的な読み書き回数と高速性だ。だがそれでもSRAMよりかなり遅い。また、SRAMと比べ構造がシンプルなので、同じ容量でもダイ面積は半分以下で済む。
今回の発表では1次キャッシュをSRAM、2次と3次をMRAMにする事で消費電力は「全てのキャッシュがSRAMのCPU」と比べて35%に低減し、CPUのダイ面積は63%にまで減少したらしいが、引き換えに数%の速度低下が起きている。


東芝、2次以降のキャッシュを全てMRAMにする低電力・低コスト技術
http://pc.watch.impress.co.jp/docs/news/event/20151210_734644.html


しかし現代のCPUはそれでもなお十分に高性能だ。また、速度が低下した分は動作周波数を上げるなどで補えばよい。速度低下した分クロックアップしたとしてもなお、全部SRAMよりは消費電力が半分以下になるだろうから。
この事はそれほど高性能を要求されない組込み用途やスマートフォンなどのモバイル端末向けには都合が良い。同じ性能で消費電力が半分になるのなら大歓迎だろう。

ただ一方でスマートフォンの場合には消費電力の半分以上が液晶モニタのバックライトなので、このMRAMをキャッシュとして搭載したCPUが普及したからといっていきなり消費電力が半分になるわけではない。


とはいえこの技術はピーク性能よりもマルチスレッド性能が要求されるサーバーの消費電力を大幅に下げる事が可能なので、そういった用途では大歓迎だろう。
またサーバー以外にも性能より消費電力低減がうれしい用途では歓迎されると思われる。


参考資料
https://www.toshiba.co.jp/tech/review/2012/09/67_09pdf/f06.pdf

KB3112343に気をつけろ [OS]

今月のWindows updateに“KB3112343”というものが混ざっていた。
セキュリティ更新ではないのでググると、

 Windows10への追加のアップグレードシナリオのサポートと、
  スムーズなアップグレードが出来るようになります。

という事だった。
次から次へとまァ余計なお世話が来ること。これは問答無用で非表示設定だ。

しかしこの“KB3112343”はオプション設定で12月2日に配布されているという情報が。
オプションの方は通常ほとんど確認しないので見逃していたか。が、問題なのは「オプション」なのに何故今回「重要」に上がって来ているのか、という事。12月2日に無視すると重要に昇格するのか?
いずれにしてもトンデモない事だ。


ちなみに、同時に“KB3112148”というものも来ていたが、こちらはタイムゾーンの更新のようだ。
こっちは当てておくか。



CPU性能の評価基準としての“現実性” [ハードウェア]

CPU性能の評価基準としての“現実性”。

これは、先日行われたIntelのSkylakeの性能に関連したベンチマーク説明会で使われた言葉だ。

曰く、

 “現実世界においてCPUの分岐予測ミスやキャッシュミスは普通に起きているものであり、
  ベンチマークソフトとしてもこれらの現実的な挙動を示すもので評価を行なうべき”

という事らしい。


確かに尤もな話である。だが、同時に大きな落とし穴も存在する。
それは、CPU性能の評価に使われる“ベンチマークソフト”のさじ加減で数字が大きく変わるという事だ。

どういう事かというと、CPUの分岐予測ミスやキャッシュミスというものはCPUの種類ごと、或いはメーカーごとに「性格」というものがあり、こうした機能は万能ではないという事だ。別の言い方をすれば得手不得手があるという事。従ってIntelのCPUで高得点が出るように調整されたベンチマークソフトでは、他のCPUはまず勝てない。当然AMDのCPUに合わせればAMDが一番になるだろう。


こうしたベンチマークの公平性については過去から議論が繰り返されてきた。
世界中のスーパーコンピュータの性能をランク付けする“LINPACK”ですら同様だ。LINPACKはどこのシステムに最適化されているという事は無い“公平なベンチマークソフト”だが、処理があまりに単純なためシステム側でLINPACKに最適化させる事は簡単に出来るし、そうでなくても現実の利用状況とかけ離れているためにその結果はあくまで目安でしかない。

例えばここ数年で中国の“天河”というシステムが1位を取り続けていた事があったが、“天河”よりランクが低いシステムが実際の活用方法である天気予測のシミュレーションでははるかに高性能であるという話もある。


だが、こうした現実は一般にはあまり知られていないし理解もされにくい。従ってベンチマークの数値が顧客に与える影響は非常に大きく、故にベンチマークの数値が売り上げに与える影響も非常に大きい。

つまり私がここで言いたいのは、Intelは一見非常にマトモな事を言っているように見えるかもしれないが、実際には自社のCPUを売るためによりIntel製CPUに有利な状況を作り出そうとしているに過ぎないという事だ。

ちなみにIntel側の提案にある、“メインストリーム系で適切なものとして(中略)を挙げている。”という話に挙がっているソフトウェア群はIntelの提供するソフトウェア開発ライブラリを利用して開発されており、Intel製CPUで最も効率よく動作するようになっているものばかりである。


元ネタの記事は以下。

インテル、CPU性能の評価基準として“現実性”の必要性を説く
http://pc.watch.impress.co.jp/docs/news/20151204_733776.html



バナー広告表示すると感染 [セキュリティ]

今日、複数のWebニュースサイトで、「バナー広告表示すると感染」というタイトルの記事が出ていた。

このタイプの攻撃は主にAdobe Flashの脆弱性を利用するので、Flashを常に最新に保てば問題ないと思われがちだが実はそうではない。


最近のマルウェアの特徴として、複数の脆弱性を突く事が挙げられる。
これは通常のコンピュータが常に複数のセキュリティに対する脆弱性を持つので、その内一つでも対策されていなければそこから侵入出来るためだ。

また、今年7月に発覚したイタリアのセキュリティ対策企業のハッキング事件で明らかになった、Adobeも把握していなかったFlashの脆弱性というものもある。

ソフトウェアを最新のものにしていても、全ての穴が塞がっているわけではない。
まだ一般に公開されていない穴を利用されたら、ソフトウェアの更新では対策が出来ないのだ。

表示しただけでマルウェアに感染する広告。 これを防ぐには、出来る対策を全て行ったうえでさらに広告を非表示にする事が望ましい。


参考:

ネット広告に潜伏、新ウイルス 世界で130万人感染
http://www.nikkei.com/article/DGXMZO90211800W5A800C1000000/



HGST Ultrastar He10 [ハードウェア]

現地時間で昨日の12月2日、HGSTから新しい10TBハードディスク「Ultrastar He10」が発表された。HGSTには他に「Ultrastar Archive Ha10」という10TBモデルが存在するが、この新型ではなく「Ultrastar He8」の後継モデルと思われる。


現在一般向けのハードディスクは3.5inchでプラッタ(内部の円盤)1枚当り1~1.2TB程度。これを最大5枚入れる事で最大6TBを実現している。
6TBを超える容量となると8TB/10TBの2種類が存在するが、これらは普通のハードディスクではない。一般的な3.5inchハードディスクは厚さが26.1mmで規格統一されている。このサイズに収まるディスクの枚数は様々な理由から5枚が限界。従ってプラッタ容量を上げない限り、1台当りの記憶容量は6TBが限界である。


現在記録容量8TB以上のハードディスクを製造するメーカーはHGSTとSeagateの2社。

この内Seagateは最大8TBで“SMR”という技術を使い、1.33TB/枚のプラッタ6枚構成。ハードディスクの構造は従来通りの開放型なので、プラッタ6枚を詰め込むのはかなり無理をしている事になる。
ちなみに無理してプラッタ6枚詰め込んだ事が理由なのかはわからないが、Seagateの8TBモデルである「ST8000AS0002」は故障率が高い事で有名だ。

これに対しHGSTはハードディスク内部にヘリウムガスを充填する事でプラッタ枚数の限界を増やす技術“Helio Seal”を開発し、1.2TB/枚のプラッタ7枚構成で8TBと、これに“SMR”を組み合わせた10TBのモデルが今までのラインアップだった。

そして今回発表された「Ultrastar He10」は、SMRを使わずに10TBを実現している。
プラッタ枚数は7枚、プラッタ当りの容量は1.5TB/枚にもなる。プラッタ当りの記録密度の限界がまた一つ突破されたわけだ。


それにしても何故、HGSTは“SMR”を使ったモデルを出しながら今回は採用しなかったのか?単純に容量を稼ぐならば“SMR”を使って12TBも可能なはず。と、思う人もいるかもしれない。
しかし二つある同じ10TBモデルの型番を並べてみればわかる。

発売済み → Ultrastar Archive Ha10
今回発表 → Ultrastar He10

見ての通り、発売済みの方は“Archive”が付く。HGSTの説明によると『アクセスが多く性能が求められる「ウォーム」タイプと、容量が求められるリムーバブル式「オフライン」との中間にあたる「アクティブアーカイブ」向けに位置付けられる。』とのこと。つまりSMRを使った「Ultrastar Archive Ha10」は用途が違うわけだ。
“「ウォーム」タイプ”とは通常のハードディスクの守備範囲で、“リムーバブル式「オフライン」”とはテープの事だろう。SMRを採用するハードディスクは、ディスク全体ではハードディスクの特徴であるランダムアクセス、そしてブロック内はテープと同じシーケンシャルアクセスという特徴のため、その中間の扱いには納得出来る。


というわけで、SMRを使わないハードディスクとして史上最大容量の10TBを実現した「Ultrastar He10」。

ハードディスクの進化は続く。


参考:

SMRのSSD的書込み挙動
http://17inch.blog.so-net.ne.jp/2015-10-01

パソコン用ハードディスク大容量化の歴史
http://17inch.blog.so-net.ne.jp/2015-09-28
メッセージを送る