ウィンドウズ7のサポートが終わるので、慌ててウィンドウズ10の入ったパソコンを買った。
量が質にならなくなった
前のパソコンは2010年に買ったもの。某海外メーカーのワークステーション。ワークステーションは業務用パソコン。部品を交換するのがカンタン。SSDとグラボとメモリは自分で入れ替えて使ったので、性能的には問題なかった。OSを7のまま使ってたのは、前に仕事で使ってた、アホみたいに高かった、設計お絵かきソフトがXP世代のもので、USB端子に差し込むキープロテクトを付けないと、ソフトが立ち上がらない仕様だったため。何とか7では使えたが、10に対してサポート無し。10が出たころ、「ウン十万でアップグレードして下さい」と。私は「それなら一生7のままでいいや」と。ところが銀行が、7でネットバンキングやって何か起こっても、補償しないと言う。仕方がない。
しかし10にアップグレードするのはタダで出来るし、ギリギリ入れればいいや、と思っていた。が、いざやってみると、10をインスコ出来ない。根本的な問題。たぶんマザーボードのあたりで非対応。
今度買ったのも、同メーカー、同じグレードの中古。2015年製。何故か新しいのはケースの金属部品が減り、プラスチッキーになってしまってるが、新しいのは良い。5年以上期間が空いてるから、相当性能も上がってるに違いない、と期待。正月はパソコンいじり。
ところが使ってて気付いたのが
「大して性能上がってねぇな!」
という事。どうやらCPUの問題。
CPUとは、トランジスタというスイッチ機能を持った部品をちっちゃくし、いっぱい乗せたもの。オフとオンで、0、1、0、1、の2進法計算。いっぱい乗せるほど、複雑な計算が出来る。数の勝負。量が質になる。原理は単純。トランジスタでも、数を集めれば、CPUもメモリもトランジスタ構成の、でかいパソコンを作ることが出来る。もっと遡ると、最初は真空管。真空管でもアホみたいに巨大に設計すれば、パソコンを作れるのか?
インテルの開発部門に、「チックタック戦略」というのがある。Coreシリーズが登場した2006年、プロセスルール(トランジスタの配列?)を65nm(ナノメートル)幅でスタート。細くして(チック)、改良(タック)で、どんどん細く細かくする戦略。細かくなれば、トランジスタをいっぱい積める。=性能が上がるはず、と。
この 14nm という数字はプロセスノードと呼ばれ、直近の約 10年間で 90nm → 65nm → 45nm → 32nm → 22nm → 14nmという微細化の変遷をたどってきました。
前のパソコンのは45nm。コードネームNehalem第一世代。新しいほうは14nm。2015年のコードネームSkylake第六世代。コア数同じ。
しかし最新の第九世代でも、14nmのまま。チック・タック・チック・タック・チック・タック・チック・タック・チック・タック・タック・チック・タックときて、2016年からは、タック・タック・タック・タック。戦略は行き詰った。
45nmから14nm。素人感覚の比率でみれば、性能は3.21倍では?と期待する。しかしそうはなってない。体感は1.2くらいか。
ポラックの法則というのがあるらしく、細かくしすぎても大して性能が上がらないし、むしろデメリット(電気のロスとか)が上回りさえする。苦労して細分化しても割に合わなくなる。
「プロセッサの性能はその複雑性の平方根に比例する」という経験則。ここで「複雑性」とは、論理回路の水準で見るならばゲート数やFF数、電子回路の水準で見るならばネットリストのエッジ数とノード数すなわち配線数と素子数、などのことである。トランジスタ数のことだとして、この法則に文字通り従うならば、1プロセッサに使うトランジスタを2倍に増やしても、性能は√2≒ 1.4倍にしか上がらない。
インテルのチックタック戦略の行き詰まりは、今の地球文明、デジタル二元論の限界を示唆している。もう、量が質にならない。次は三進法か?