
拓海先生、最近部下から量子コンピュータがどうこう言われて困っているのです。雑誌で「誤差緩和」なる言葉を見かけましたが、我が社にどう関係してくるのか全く見当がつきません。そもそも「読出し誤差」って何ですか。

素晴らしい着眼点ですね!大丈夫、簡単に噛み砕いて説明しますよ。読出し誤差とは、量子コンピュータで計算の最後に出る答えを測る際に、本来の状態と異なる結果が出てしまう現象です。身近な例で言えば、伝票の読み取り機が時々数字を間違えるようなイメージですよ。

なるほど。それを直すのが「誤差緩和」なんですね。で、今回の論文は何を新しく提案しているのですか。投資対効果の観点で教えてください。

要点を三つでまとめます。1) 既存の標準的手法をベースに、装置ごとの実測データで個別にモデルを改善する。2) そのために深くない(low-depth)多様な回路を追加で実行し、観測分布を集める。3) 集めたデータに機械学習を当てて、読出し誤差モデルを補正する。投資対効果で言えば、小さい追加実行コストで測定精度が確実に上がる点が魅力です。

これって要するに、機械学習を使って「うちの機械はこういう間違いをしやすい」と学習させ、それに合わせて補正するということですか?

その通りです!例えるなら、同じ製造ラインでも機械ごとに微妙に癖があるため、標準のマニュアルだけでなく現場のサンプルを取って補正する感覚です。しかも深い(コストの高い)処理をせず、軽い試験運転を複数回するだけで有効性が出せるのがポイントですよ。

導入すると現場はどれぐらい稼働に影響しますか。うちで言えば生産ラインを止めずに試せるのか心配でして。

そこも安心材料です。論文の手法は「低深度(low-depth)回路」を利用するため、長時間の占有は不要で短時間の追加実行で済みます。生産ラインで言えば、短い試運転を複数回挟むだけで済み、停止や大がかりな調整は不要です。加えて一度学習したモデルはしばらく使えるため、頻繁なコストは発生しませんよ。

投資対効果の定量はありましたか。どれくらい精度が上がるのか、数字で示してくれないと役員会で言えません。

論文ではシミュレータ(IBM Perthのバックエンド想定)で検証し、7量子ビット・回路深さ4の条件で中央値のフィデリティが6.6%改善、平均二乗誤差で29.9%改善、Hellinger距離で10.3%改善と報告しています。現状の誤差を大幅に下げられる確度があるため、特に誤差に敏感な応用には有効です。

よし。要するに、うちが将来的に量子技術を業務に使うとしたら、最初は標準的な誤差補正に加え、現場ごとに短い試験回路を回して機械学習で補正するのが現実的だと。私の言葉で言うと、「装置ごとの癖をデータで学んで補正する」ですね。


