団藤保晴の
「インターネットで読み解く!」

第116回「半導体技術に頂点が見えた今」 (2002/03/28) [This column in English]

 コンピューター中央処理装置(CPU)のトップ企業インテルは3月半ば、 「世界初、1 平方ミクロンの SRAM セルを開発」で、90ナノメートル(nm)幅の回路製造技術が実用になることを証明した。100nm、つまり1千万分の1メートルを切る技術で造られるCPUは、来年には現在の最高機種「ペンティアム4」後継として家庭でもオフィスでも実際に使われることになる。20年前には100nmは回路技術の原理的な限界と考えられる数字だった。それが破られたとはいえ、限界が見える地点に間もなく到達することに違いはない。科学技術史上で画期的な時期に至って、国内半導体メーカーに元気がないばかりか、20年前の技術予測「ハードの進化が止まる時はソフトウエアが主流の時代」に対する備えも出来ていない。薄ら寒い日本の現実をここで確認するしかないとは、いささか辛い。


◆目指す最高性能と限界を決める絶縁膜厚さ

 昨年11月、インテルは1.5テラヘルツ(THz)の速さを持つトランジスタを作った。これはインテル発表よりVmagOnlineニュースの方が詳しい。

 半導体の世界の進歩は「ムーアの法則」が支配してきた。インテル創設者の一人ゴードン・ムーア博士が唱え、「半導体の性能と集積は、18ヶ月ごとに2倍になる」というものだ。10年来生きてきた法則を引き続き実現するには、回路幅は「現在は0.18μmから0.13μmへの移行期間にあたるが、このあと90nm(0.09μm)、65nm、45nmと縮小してゆき、2010年には30nmにまで達すると予想されている」「今回の発表はさらに一世代進んだゲート長15nm、つまり30nmプロセスに必要なトランジスタの試作に成功したわけである」

 この進歩は、どこまでも際限なく進むものなのか。実は45nmが可能と発表した際に、インテルは絶縁膜の厚さが0.8nmしかなくなることを明らかにしている。このあたりは「特集:次世代Si-MOSデバイスの研究開発動向」を見ていただこう。

 0.8nmは原子3個分の厚さでしかない。従来、10原子層は必要と考えられていたのに、2000年に米ベル研究所が「6原子層、厚さにして1.5nm程度まで信頼性を維持できる可能性がある」と示していた。今回の30nmプロセスに至って絶縁膜として現在の二酸化シリコンを諦め、「高誘電率ゲート絶縁膜」と呼ぶ新材料に変更せざるを得なくなったが、この材質はまだ決定していない。10原子層程度まで小さくなると、物質が古典的な意味での固体と言えなくなり「揺らぎ」のような性質を示し始めると考えられ、20年前にはそれが原理的な限界になると思われていた。3原子層で電子の漏れを止める――絶縁可能とする発表に、実は私はまだ半信半疑である。

 ペンティアム4の現在の最高モデルは2.2ギガヘルツ(GHz)版。毎秒22億回の計算処理をする。2007年や2010年にはテラヘルツ動作のトランジスタを集積することで、20GHzないしは200GHzの性能が目論まれている。従来型半導体なら、このあたりまでに限界があると考えたい。

 この性能で集積回路を実際に製造するには、現在の光による焼き付け方式は 使えなくなる。波長が100nm以上もあって、30nm幅の回路が焼き付けられない ことは容易に理解されよう。「分子やDNAの大きさになる半導体プロセス 」にあるように、極短波長10nm級の極紫外線、あるいは電子線で焼き付けるしかなくなり、空気で吸収されないようプロセスすべて真空下という具合になる。全く新しい工程の工場は巨額の投資が必要になり、世界で限られた数のメーカーしか持てないと予想される。

 我々が見えている限界の先にあるかもしれない未来型素子は、当面は使えないだろう。「単一電子トランジスタや量子トランジスタは、トランジスタ一つ一つは研究所で試作されているが、ある程度の大きさの半導体として製造されていないし、製造の理論に関しても完全に確立しているわけではない。このため、これらの方式のトランジスタが量産されるには、10年か20年ぐらいかかるのではといわれている」

 ところで、20GHzないしは200GHzもの動作とは、CPUの進歩がそんなに必要かとの疑問もある。既にGHz台に達したパソコンで本当に不自由を感じる用途は、手の込んだグラフィックの処理とか動画ファイルのMPEG圧縮とかであり、通常のソフトウエアは使う人間のレスポンス待ちばかりしている。

 最近、新聞紙面の製作端末を数社分まとめて試用する機会があり、ギガヘルツ・パソコンで十分てきぱきと動いてくれるのを確認した。新聞製作は多彩なレイアウト技術を求め、DTPとしてヘビーな用途に当たる。それでも、もう少しCPUが進歩したら、十分と言えそうである。一般ユーザーがある程度以上に高速なCPUを求めない、そんなにお金は払いたくないと思う時期が遠からず来る可能性がある。そうなったら、つまり高価な最先端品を作っても量が売れなくなり、開発の進行が滞ることにもなろう。


◆競争力を失わせた国内勢の戦略欠如

 CPUはインテルに到底かなわないと任せ、記憶保持動作が必要な随時読み書きメモリー「汎用DRAM」でしのぎを削っていた国内各社。それが今どうなっているのか。90年代末、韓国・台湾勢の追い上げにも「技術力は上」と安易に構えている間に競争力は失われ、韓国・サムスン電子がトップに立ち、国内勢はシェア上位から姿を消し見る影もない。

 東芝は昨年末、「半導体メモリ事業の構造改革について」を発表、汎用DRAM事業から撤退し、米国での工場・設備を世界第2位の米・マイクロン・テクノロジー社に売却することになった。

 これに関して「半導体業界、甘い見通しと再三のリストラで体力消耗」は「日本半導体産業の『敗戦の象徴』とされる東芝の汎用DRAM撤退。これが一般に思われているほどは競争力を回復させない、と言ったら言い過ぎだろうか」と、辛口の批評をしている。従来からのリストラ策が本質的に競争力を回復させるものでなかった点と、今後はLSIで稼ごうとする各社の最新対策が似たり寄ったりであることを指摘している。

 国内半導体業界は共同開発計画「あすか」で、2001年から100nmから70nmのプロセス技術開発を進めている。だが、現実の動きは計画完成を待ってくれそうもなく、もう二の矢が必要になった。

 ロイターの「日立など電機大手5社を中心に次世代半導体を共同開発へ」が伝えるように、「電機大手5社を中心に、現行技術の枠内で、回線幅100ナノメートルの高集積度の半導体開発に着手する」のが3月現在の姿だ。これも「2001年度第2次補正予算で、『次世代半導体設計・製造技術共同研究施設整備』(315億円)が認められたため」であり、実際にどう動くかは決まっていないという。

 一貫しているのは戦略性の欠如である。国際競争をにらんでだめだと見切れたら、汎用DRAMを早い段階でどこか1社に集約してしまうくらいの決断があるべきだった。今に至っても「横並び」意識は解消されていない。

 ニューズウィーク日本版2001年11月21日号「ハイテク大国、復活の条件 」は、日本の独壇場だった半導体回路焼き付け装置「ステッパー」にもオランダ勢が食い込んだことを導入に、携帯電話の覇者になったフィンランド・ノキアなどと比較しながら分析している。

 「10年前のフィンランドは戦後最悪の不況に陥り、『利益を上げられるのは国営の酒類販売会社ぐらい』とまでささやかれていた。それを思えば、日本にもチャンスはある。今までのやり方を捨てることができればの話だが」との指摘はもっともだ。大手各社はどの会社も同じような製造能力を持とうとし、政府の補助金も場当たりのばらまき。各社すべてに世界を相手にできる力を持たせられないことは自明なのに……。


◆ソフトウエア開発に人がいない!?

 ハード開発が一休みする次代を担うはずのソフトウエア。独立行政法人・産業技術総合研究所の「AIST Today 2001.9」の特集「情報・電子・通信分野の課題と産総研の取り組み(2)」で研究コーディネータ太田公廣氏は、国内ではソフトウエア研究者が圧倒的に不足し、世界に通用するソフトが出ない危機的状況になっていることを訴えている。ゲームソフト以外では世界に通用するものが極めて少ない。

 「総務省の統計によれば、日本のソフトウェア業界の研究本務者数は現在25,311名である」。海外に比べて国内に少ない研究支援者の数を調整し、実質的な仕事をしている指標である論文被引用回数のシェア「米国50%、日本8.7%」を掛けるといった「試算をすると、本格的研究者といえる人数は1,500名程度となる。この分野は他の分野とは異なり、国際的論文としてはほとんど発表されていないので」国際級、本当の研究者と言える「数字はもっと厳しくなり、1,000人を大幅に割ることは充分に考えられる」。自立した本格研究者は実に、零に近い。

 インドは、この15年間に年間12万人ものソフトウエア技術者を育てるようになり、米国の年間7万5千人をも上回るようになった。それに対して日本は数千人程度とみられる。

 太田氏はこう言っている。「ソフトウェアを作るためのプログラミング技術では、プログラミング言語を習得する必要がある。さらにそれらの文法である数学的論理構造を把握して、必要に応じて独自の言語も創作する。これらを自在に使いこなしてプログラムを書いてゆく。言語能力に加えてイメージング能力が必要である」

 この国の教育システムに間違いがあるのではないか。この連載で最初に書いた作品のひとつ第2回「100校プロジェクトと教育現場」で、日本のコンピュータ教育がボタンの掛け違いをしたと指摘した。中学校の授業として93年度から技術家庭科に導入された「情報基礎」が、子供にいきなりBASIC言語を教えて、図形を描かせたりすることになり、コンピュータ嫌いを生むことになっていないかと。掛け違いを生んだ体質は高等教育まで一貫して支配している。

 コンピュータと付き合っていくことは、もっと豊かな営みであり、想像力豊かに膨らんだ柔軟なイメージを、マシンの力を借りてさらに飛躍させるような闊達自在さがなくて、秀でたソフトウエアが出来るとは思えない。私自身の経験でもプログラミング言語は必要に応じて習えばいい。アイデアやイメージを生むことこそが命ではないのか。

 2003年度から今度は高校に「情報」が新設される。そのための「情報教諭速成マニュアル」をひもときながら、「ネットワークの臨床社会学[3]苗床論――インフォテックではなくインフォアーツ」で野村一夫氏はこう嘆き、批判している。

 「最新の情報科学そのものは最近の傾向を反映して文化的に拡張されつつあって、そうしたものを『情報学』と呼ぶようになっているけれども、現在進められている『情報科』のカリキュラムは、この新しい『情報学』というより、むしろ純正(?)コンピュータ・サイエンスが主張を強めたかっこうになっている。まるで時間がインターネット以前に逆戻りしたかのようである」

 確かに並んでいる項目は、情報処理学会でかつて見たような技術的なものばかり。

 「私たちがインターネット文化との出会いにおいて心を動かされた、あのオープン・マインドがない。あるのは内に閉ざすセキュリティの話ばかりである。『コンテンツの時代』と言われて久しいのに、情報機器という『入れ物の』話はあるが、具体的に中身(コンテンツ)を検討する話がない」

 中学「情報基礎」の悪しき発展形が、高校「情報」になってしまった。文部科学省の頭には中学「情報基礎」が失敗であるとの認識は無いのだろう。この間にインターネットが登場していることすら小さなエピソードに過ぎず、眼中にないかのようだ。

 「高等学校学習指導要領 第10節 情報」を読むと、こういう分野にこそ総合的学習が要ると思える。ただし、やっとコンピュータを使えている先生ではなく、優れた文化的なセンスと自在な能力の先生がいてこそだ。望むべくもないのかも知れない。



【INDEXへ】

無料メールマガジンとして配信中。登録される方はこちらへ
【リンクはご自由ですが、記事内容の無断での転載はご遠慮下さい】

※ご意見、ご感想や要望はメールフォームで