量子コンピュータの歴史と計算の仕組み:量子コンピュータの基礎知識2

量子コンピュータの基礎知識

更新日:2022年5月24日(初回投稿)
著者:東京大学 大学院 工学系研究科 物理工学専攻 准教授 武田 俊太郎

前回は、量子コンピュータの全体像を紹介しました。今回は、量子コンピュータ誕生の歴史と計算の仕組みについて、現代のコンピュータと比較しながら解説します。

1. 現代のコンピュータの計算の仕組み

現代のコンピュータは、どのような仕組みで情報を表し、計算をしているのでしょうか? コンピュータは、数字、文字、画像などあらゆる情報を、「011001…」のように0と1だけで表します。この0か1という情報単位を、ビットと呼びます。ビットの情報を表しながら処理するために、トランジスタと呼ばれる電気スイッチが活躍します。電気スイッチが、電気を通さないOFFの状態なら「0」、電気を通すONの状態なら「1」を表すと決めます。この電気スイッチを多数集めれば、大量の情報を表すことができます。さらに、電気スイッチ同士をうまく接続して連携させることで、足す、引く、かける、割るといった計算のルールを実現し、スイッチに自動的に計算をさせることができるようになります。

現代のコンピュータは、このような電気スイッチの集合体です。現代のコンピュータの脳に相当するCPU(中央演算処理装置)には、このスイッチが約10億個搭載されており、目にも止まらぬ速さでONとOFFの状態を切り替えながら、計算を行っています。この基本的な情報処理の仕組みは、スマートフォン、ノートパソコン、スーパーコンピュータなど、どれも同じです。

コンピュータの性能は、過去数十年で飛躍的に向上しました。トランジスタが小型化し、1個のCPUチップに搭載されるトランジスタの数が、ムーアの法則と呼ばれる「約1.5年で2倍」のペースで増え続けたためです。しかし近年、このペースが頭打ちになりつつあります。トランジスタのサイズがあまりに小さくなり、原子1個のサイズに迫ってきたからです。

一方で、現代社会は、人工知能やIoT、ビッグデータなどのキーワードに代表されるように、ますます計算能力の高いコンピュータを求めています。性能をさらに高めるには、現代の技術の延長では難しく、本質的に新しい仕組みで計算するコンピュータが望まれます。そこで、量子コンピュータがその突破口になると考えられます。

2. 量子コンピュータの歴史

量子コンピュータ誕生の歴史をひもといてみましょう(図1)。量子コンピュータというアイデアは、1980年代にリチャード・フィリップス・ファインマン(アメリカ)やデイヴィッド・ドイッチュ(イギリス)といった物理学者たちによって生み出されました。ミクロな量子の性質を利用し、従来の「0」か「1」というビットの代わりに、「0と1の重ね合わせ」という量子ビットを使って計算をする、全く新しいコンピュータです。概念としては誕生したものの、当時は、まだそれが何に役立つのかは分かっていませんでした。

図1:量子コンピュータの歴史

図1:量子コンピュータの歴史

1994年に、量子コンピュータを使った高速な計算によって、現代のインターネットにおける通信の安全性を守っている暗号技術が、簡単に破られてしまうことが発見されました。これに続いて、量子コンピュータを使うと速くなる計算が具体的にいくつか見つかるようになり、量子コンピュータ開発の機運が高まりました。2000年代になると、世界中の大学や研究所で、数個の量子ビットを制御する基礎技術の開発が進められました。また、2010年代には、Googleをはじめとする大手企業やベンチャー企業が開発に参戦し、処理できる量子ビット数は年々増えていきました。

そして2019年、Googleは53個の量子ビットを搭載したマシンを開発し、実用上は無意味な計算ではあるものの、初めて量子コンピュータがスーパーコンピュータより速く計算ができたと発表しました。今では、世界各国が量子コンピュータ開発に巨額の予算を投資し、開発競争は日に日に激しさを増しています。

3. 量子コンピュータの計算の仕組み

続きは、保管用PDFに掲載中。ぜひ、下記よりダウンロードして、ご覧ください。