「そもそもコンピュータとは何か」から始めよう
真空管からシリコンチップまで、そしてスマートフォンからスーパーコンピュータまで—— この教材ではコンピュータの本質と80年の歩みを一気に見渡す。
定義から始めると、すべてが繋がる
コンピュータの本質的な定義
「情報を受け取り、処理し、結果を出力する機械」
電卓も、スマートフォンも、スーパーコンピュータも——すべてこの定義に収まる。 違いは処理できる情報の種類・量・速度だけだ。
キーボード・マウス・カメラ・センサー・ネットワーク——外界からの情報をデジタル信号に変換する
CPU が命令を1つずつ実行し、計算・比較・データ移動を行う。1秒間に数十億回の演算が可能
ディスプレイ・スピーカー・プリンタ・ネットワーク——処理結果を人間や他のシステムに伝える
クリックして各層の役割を確認しよう
真空管からシリコンチップへ、そして AI の時代へ
ENIAC(1945年完成・初稼働、1946年2月に一般公開)は重さ30トン、1万8000本の真空管を使用。1秒間に5000回の加算が可能だったが、消費電力は150kW。 プログラムは物理的な配線の切り替えで行われた。冷房設備が必要で、故障は日常茶飯事だった。
1947年にベル研究所で発明されたトランジスタが真空管を置き換えた。 サイズは1/100以下、消費電力は大幅に削減。IBM 1401(1959年)は企業向けに普及し、 高水準言語(FORTRAN・COBOL)が登場した。
複数のトランジスタを1枚のシリコン基板上に集積。ムーアの法則(1965年)が提唱され、 「集積度は18〜24か月で2倍になる」という予言が実現し始めた。 IBM System/360 が登場し、ソフトウェア互換性の概念が生まれた。
Intel 4004(1971年)が世界初の市販マイクロプロセッサ。1977年 Apple II、1981年 IBM PC の登場で コンピュータが一般家庭へ普及。1990年代にはインターネットが爆発的に広がり、 Windows 95 が GUI の時代を本格化させた。
クロック周波数の向上が物理限界に近づき、マルチコアへのシフトが始まった。 iPhone(2007年)がスマートフォン時代を切り開き、ARM プロセッサが主役に。 AWS(2006年)に代表されるクラウドコンピューティングが IT インフラを再定義した。
GPU・TPU・NPU などの専用アクセラレータが CPU と協調する時代。 Apple M1/M4 の SoC 設計が半導体業界を再編。 ChatGPT(2022年)以降、AI 推論のためのコンピューティング需要が爆発的に増大。 量子コンピュータの商用化も現実味を帯びてきた。
1971年〜現在:トランジスタ数の変化
※ 横幅は対数スケールの概念図です
マイクロコントローラから量子コンピュータまで
ARM SoC(System on Chip)で CPU・GPU・NPU・メモリを1チップに統合。消費電力最優先の設計。
→ CPU・GPU・NPU・FPGA の違いを詳しく見る汎用的な計算処理。文書作成・Web・動画再生から軽い開発作業まで対応。バランス型設計。
高い演算性能と大容量メモリ。3D CGレンダリング・科学計算・AI 開発向け。熱設計の制約が少ない。
24時間365日の連続稼働と高信頼性。多コアCPUでの並列処理・大容量ストレージが特徴。
家電・自動車・医療機器に内蔵された小型コンピュータ。リアルタイム性・低消費電力が優先。
数万〜数百万のCPUコアが協調して動作。気象予測・創薬・核融合シミュレーションに使用。
神戸・理化学研究所に設置された富岳は、2020〜2021年にTOP500(世界スパコンランキング)で4期連続1位を獲得。 A64FX プロセッサ(ARM ベース、1チップ48コア)を15万個以上搭載し、 LINPACK 実測性能(TOP500 基準)442 PFLOPS、理論ピーク性能は約 537 PFLOPS(1秒間に5.37×10¹⁷回の浮動小数点演算)。 COVID-19の飛沫シミュレーションや新薬探索にも活用された。
すべての情報はビット列に還元される
トランジスタは「電流が流れる(ON)」か「流れない(OFF)」の2状態しか持たない。 この2状態を 1 と 0 に対応させることで、 物理的なノイズに強い安定した情報表現ができる。
※ 厳密には IEC 規格で KiB/MiB/GiB/TiB(2進数、1,024倍)と kB/MB/GB/TB(SI 十進数、1,000倍)を区別する。HDD 容量表示は十進数、OS の表示は二進数が多いため「1 TB の HDD が OS では約 931 GiB と表示される」現象が生じる。
Q1. 世界初の汎用電子式コンピュータとされるのはどれか?
Q2. ムーアの法則が予測したのは何か?
Q3. 1 GB(ギガバイト)は何バイトか?
Q4. コンピュータが「0と1」だけを使う最も根本的な理由は?