2012年04月05日 のCoolに過ごそう

原発なしでも電力は余る!

コメント(0)

大飯再稼働問題 原発は政治の道具でない 福井新聞

というニュースが報じられているが、野ダメ首相は何とか原発を動かそう、消費税を上げようと必死だ。

こういうのを誰が首相に選んだのか?(笑)

下は日刊ゲンダイの記事をまとめたものだが、そもそもが国内の原発54基のうち、53基がストップしているが、電力は足りているではないか。

政府の「エネルギー・環境会議」は、年間で最も電力を使う夏場で最大需要は9電力会社計1億7954万キロワットと試算。

全ての原発が停止したままなら、供給力は1億6297万キロワットで、原発15基分に相当する1656万キロワットが不足するという。

本当だろうか?

 

昨年政府は原発事故後夏場に1000万キロワットの電気が足りなくなると煽ったが、猛暑にもかかわらず、供給不足にはならなかったという「前科」があることを忘れてはならない。

環境エネルギー政策研究所によると、国の電力不足の試算にはカラクリがあるという。

政府発表の今夏の需要予測のベースが、そもそも底上げされているのだ。

昨夏と比べ2300万キロワットも多い10年夏の電力数字を基準にしている。

これは家庭も企業も全く節電しないことが前提の数字だ。

 

次に供給力をかなり低く見積もっている。

自家発電分を少なく計上したり、理由不明の供給不能電力が電力9社で計2000万キロワットもあったりするわけで、怪しさ満点。

そのうえ真夏に、わざわざ火力発電所を止めて検査し、供給不足だという電力会社もあるわけで、電力会社も何だか必死のようなのだ。(笑)

 

環境エネルギー政策研究所の試算では、全ての原発が止まっても、2割近く余力があるのだという。

もともと電力のエネルギー構成比は火力が8割余りで、対する原子力は1割程度。

だから仮に全部止まっても大した影響はないのだ。

  

国の考え方の前提は原発がなければ電気が足りないというものだが、本来は停電をさせず既存設備で安定供給するにはどうすればいいのか、と考えるべき。

緻密に計画を立てれば、ピーク時の電力もきちんとコントロールできることを実証しているではないか。

原発が全部止まっても、電力は安定供給できるのだ。

バカタレどもめ。(笑)

 

原発 全54基ストップ この夏、電力は大丈夫なのか 日刊ゲンダイ(ニュースソース)

スーパーコンピュータ

コメント(0)

keisupercomputer.jpg

文部科学省は2007年に2011年の完成を目指し、10ペタフロップス級のスーパーコンピュータを作るプロジェクトを開始。

そして2011年には、その成果が実り、日本の「富士通 京」が世界一位を獲得。

ペタというのは10の15乗だから、10ペタフロップスは毎秒10の16乗回の浮動小数点演算を実行できる性能だ。

 

完成後は研究者との共同利用施設となり、企業の利用も想定されている。

2011年にトップクラスとなるためには、10PFlops級の性能が必要だというが、そのためには、プロセッサ、メモリ、システム内のネットワークなどのハードウェア、さらに、それに必要なソフトウェアなどを組み合わせて、目標とする性能を達成できる構造の設計が必要になるわけだ。

この計画は理研の主導のもとで、1案を富士通が担当、もう、1案はNECと日立の連合チームが担当して検討を行うという、総額1000億円にものぼる税金を投入するプロジェクトなのだが、何のためにこうしたスーパーコンピュータを作るのだろうか?

具体的には、天気予報の精度向上、バイオ分野や新薬開発での人体シミュレーション、カーボンナノチューブや触媒などのナノ機能材料の分野などで利用されるのだという。

 

BlueGene1B.jpg


現在の天気予報では対象地域をXYZ3方向のメッシュに区切り、それぞれのメッシュの状態を変数として方程式を解いているのだが、当然のことながら計算には気温や湿度などのデータが必要になる。

これらのデータは気象観測や衛星観測などで取得するが、すべてのメッシュへの正確なデータを取得することは、現実問題として不可能だ。

そのため、台風の進路予測などでは、初期値を観測誤差の範囲でばらつかせてシミュレーションを繰り返し、それらの結果を総合して確率的な進路を割り出す「アンサンブル予報」という手法が用いられている。

台風の進路予想の精度を上げるには現在のメッシュでは粗過ぎるため、より細かいメッシュを使う必要があり、さらにアンサンブル予報では何百回ものシミュレーションが不可欠なため、更に強力な計算能力が必要になるというわけだ。

 

 

薬の開発は、多数の候補物質を試験管で効果を確認し、その中から絞り込んだ有望な候補に対して毒性試験や動物実験に進むという手順を取るのだが、手間が掛かるため当然時間とお金がかかる。

そこで、候補物質とターゲットとなるタンパク質との結合状態をコンピュータでシミュレーションして、より有望な候補を効率的に絞り込み、開発効率を高くしようというわけだ。

糖尿病の薬であるインシュリンは、通常2分子がペアとなり、このペアが3つリング状に繋がった6量体という形で存在している。

血糖値を下げるためには血液中で分解して単量体になる必要があるのだが、この6量体の結合は強固で、注射後に分解されて単量体となり効いて来るまでには、数時間が必要となるため、緊急の場合には間に合わないことになる。

この6量体となる結合部分を変更し、結合力を弱くすることで、30分程度で効く薬が作られるというわけだ。

このような短時間分解するインシュリンの最初の製品は、試行錯誤を繰り返して作られる。

そこでどの部分のアミノ酸をどう変えれば良いのかという答えを出すために、スーパーコンピュータで分子シミュレーションを行うことで、即効性の高いインシュリンの開発が効率よくできるようになると考えられている。
 

 

BlueGine2B.jpg

   

また医療分野では、分子レベルで心臓などの臓器のモデルまで多階層の人体モデルを作り、医療に役立てようという研究も行われている。

たとえば、細胞レベルの心臓シミュレーションモデルを使えば、正常な鼓動だけでなく、収縮部分の散在により鼓動周期が短くなり、心停止に至る心室細動などの症状も再現が可能になる。

薬や蘇生法の効果もスーパーコンピュータでシミュレーションが可能で、新薬の開発や遺伝子レベルの解析、さらには個人個人にあわせた治療法を選択したり、手術の効果のシミュレーションで最適な手術法を選択する、というようなレベルの医療が可能になると期待されている。

 

自動車業界でのコンピュータシミュレーションは、F1レースなどよく知られているように、CGでデザインしたモデルでシミュレーションを行い、試作車の製作回数を大幅に減らして開発期間の短縮とコストダウンを実現している。

最近では自動車の安全性に対する要求が厳しくなり、各種の条件での衝突に対して車がどのように変形し、乗員にどれだけの力が掛かるかなどの特性を求める必要が高まっているが、これをすべて、実車で衝突実験をやっていたのでは、時間も費用も膨大なものになるため、現状では100万メッシュ程度で衝突シミュレーションを繰り返している。

これを仮に地球シミュレータの10倍細かいメッシュでシミュレーションを行えば、衝突の際の鉄板のシワの寄り方が実験と非常に近いものになるのだという。

  

ナノの機能材料の分野では、カーボンナノチューブという新材料があるのだが、実用可能になる特性を持つナノチューブを、狙ったように作ることはできないというのが現状だ。

シミュレーションによって、触媒の働きを原子レベルのシミュレーションで解析し、鉄やニッケルなどの微粒子から、どのようにしてカーボンナノチューブが成長するかがわかれば、狙ったものを作ることができるようになると、期待されている。

また歪シリコンや高誘電率絶縁体とシリコン界面の状態をシミュレートし、より優れた性能の半導体を開発するも可能になるわけだ。

こうした分子シミュレーションなどは、実験で観測できない詳細な過程を、シミュレーションによって可視化するわけだが、可視化することのできない分野、つまり銀河系やブラックホールの衝突などの、実験室で再現して研究することが不可能な分野も存在する。

こうした分野では、理論に基づくコンピュータシミュレーションによって現象を理解し、それに対応する現象を望遠鏡で見つけて理論を確認してゆくという方法で、新しい発見が生まれるわけだ。

  

  

このように、スーパーコンピュータの能力をどう使えば、開発力に直結させることができるのかという研究は、現時点ではかなりのレベルに達している。

そうなると、あとは強力なスーパーコンピュータの開発と投入を、どれだけ早く、どの程度投入できるのかによって、実用化への道のりの長さが決まってくるわけだ。

このように産業界におけるシミュレーション計算の役割は日ごとに大きくなっている。

言い換えると、コンピュータによるシミュレーションは、実験・理論に続く「第3の手法」として確立しているため今では「産業競争力の鍵を握る」とまで言われているのだ。

高速コンピュータは、このようにあらゆる分野で、威力を発揮するため、天然資源の少ない日本では、こうしたスーパーコンピュータの開発は特に不可欠の投資だといっていいだろう。

  

BlueGine3B.jpg

     

では、日本のスーパーコンピュータの実用レベルはどの程度なのだろうか?

こちらにTOP500という世界で最も高速なコンピュータシステムの上位500位までを定期的にランク付けし、評価するプロジェクトがある。

2011年度の世界のトップ500システムの内訳を見ると・・

設置されている国別では アメリカ合衆国が 53パーセント弱で圧倒的な数だ。

第二位の中国 15パーセント弱 

三位の日本はたったの6パーセント

米国では日本の10倍近くのシステムが稼動している。

わかりやすく言えば、日本のスーパーコンピュータの開発は「点」であるのに対して、米国では「線」で繋がった開発が行われているのだ。

この体制の違いが今日の差の一因になったと言ってもいいだろう。

  

 

「線」で繋がった開発のためには、中期的・長期的な展望でロードマップを作り、持続的な開発をすることが重要なのだが、それは一民間企業でできることではない。

そのため国が計画・支援することが不可欠になるのだが、そうなると日本はちょっとねえ・・という感じがするのは私だけだろうか?

というのは、日本の場合、開発テンポがあまりにも遅すぎるのだ。

たとえば日本の誇る「地球シミュレータ」というスーパーコンピュータを例に挙げると、運用開始から3年以上が経過して、ようやく研究開発に着手という遅さだ。

こうしたものの開発は日進月歩の世界なのだから、ひとつのシステムが完成する際には、すでに次世代機の基礎研究を始めていなければ、アメリカに追いつくことはできないだろう。

このようにスーパーコンピュータの場合、もはや「開発する必要があるのかどうか」を議論している場合ではなく「いかに早く実行するか」というレベルなのだ。

使えるスーパーコンピュータを「持つ者」と「持たない者」とでは、競争力の差は今後ますます拡大してゆくことに、疑いの余地はない。
 

BlueGine4B.jpg

 


おまけ

2位でもいいから大量のスパコンを

なぜ「京」がスパコン1位を獲得できたのか

たるさんのパソコンフィールド

 

2012年4月

« 前月 翌月 »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          

2012年4月

月別アーカイブ