東大の新量子コンピューター技術 大規模計算に道

2019/10/18 3:00
保存
共有
印刷
その他

開発した試作機は、どこでも使える大規模な量子コンピューターの実現につながる可能性がある

開発した試作機は、どこでも使える大規模な量子コンピューターの実現につながる可能性がある

東京大学の古沢明教授らは、従来のスーパーコンピューターをしのぐといわれる量子コンピューターを、室温で動き、大規模な計算を可能にするための新手法を考案し、試作機の開発に成功した。現在の量子コンピューターは極低温の状態でしか動かない。汎用的に使える量子計算機としての実用化に道を開く技術となる可能性がある。

従来のコンピューターは0か1の値であるビット単位で計算するのに対し、量子コンピューターは、0と1の「重ね合わせ」の状態である量子ビット単位で計算する。

理論上、量子コンピューターは従来のコンピューターに比べ、高速に複雑で大規模な計算ができると期待されるが、現段階では使用環境や大規模な計算に対応するための制限が多く、実用化の課題となっていた。

古沢教授らが開発したのは「一方向量子計算」と呼ばれる手法で、短い間隔で断続的に発したレーザー光を計算に使う。一つ一つのレーザー光を計算の単位として扱い、互いに影響し合う「量子もつれ」と呼ぶ関係を持つ。その状態の測定を繰り返すことで、計算結果が得られるという。

この手法ではレーザーやレンズ、鏡などの光学機器を組み合わせた装置が量子コンピューターとなる。製作した試作機は常温常圧で動作することを実証した。将来的にチップ化することも可能とみている。「(大規模計算ができる目安となる)1万量子ビットの量子コンピューターが10円玉サイズで実現できる」(古沢教授)という。

量子コンピューターは量子ビットの数を増やすことで性能を上げ、大規模計算に対応する。現在、精力的に開発を進めている米国のグーグルやIBMは「量子ゲート」と呼ぶ方式を採用している。回路を超電導の状態にしたり、複雑な配線を施したりする必要があり、量子ビットの数を増やすのが難しいとの指摘がある。現在は50~100量子ビットが限界だ。

研究チームは今後、実際の計算の検証をするほか、計算を進めたときのエラーを小さくする技術の開発などに取り組む。成果は米科学誌「サイエンス」に掲載された。

【関連記事】
「超計算」人類の手中に グーグル実証か
量子技術、米中の背中追う 政府年内に戦略
新暗号技術23年メド採用 量子コンピューターでも難解

保存
共有
印刷
その他

電子版トップ



[PR]