論文の概要: Quantum Vision Transformers
- arxiv url: http://arxiv.org/abs/2209.08167v2
- Date: Tue, 20 Feb 2024 13:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 21:55:25.770912
- Title: Quantum Vision Transformers
- Title(参考訳): 量子ビジョントランスフォーマー
- Authors: El Amine Cherrat, Iordanis Kerenidis, Natansh Mathur, Jonas Landman,
Martin Strahm, and Yun Yvonna Li
- Abstract要約: 本稿では、複合行列に基づく量子変換器を含む、トレーニングと推論のための3種類の量子変換器を紹介する。
我々は,競争力のある標準的な医用画像データセット上で,量子トランスフォーマーの広範なシミュレーションを行った。
超伝導量子コンピュータに量子トランスを実装し,最大6量子ビット実験の励磁結果を得た。
- 参考スコア(独自算出の注目度): 2.3558144417896583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, quantum transformers are designed and analysed in detail by
extending the state-of-the-art classical transformer neural network
architectures known to be very performant in natural language processing and
image analysis. Building upon the previous work, which uses parametrised
quantum circuits for data loading and orthogonal neural layers, we introduce
three types of quantum transformers for training and inference, including a
quantum transformer based on compound matrices, which guarantees a theoretical
advantage of the quantum attention mechanism compared to their classical
counterpart both in terms of asymptotic run time and the number of model
parameters. These quantum architectures can be built using shallow quantum
circuits and produce qualitatively different classification models. The three
proposed quantum attention layers vary on the spectrum between closely
following the classical transformers and exhibiting more quantum
characteristics. As building blocks of the quantum transformer, we propose a
novel method for loading a matrix as quantum states as well as two new
trainable quantum orthogonal layers adaptable to different levels of
connectivity and quality of quantum computers. We performed extensive
simulations of the quantum transformers on standard medical image datasets that
showed competitively, and at times better performance compared to the classical
benchmarks, including the best-in-class classical vision transformers. The
quantum transformers we trained on these small-scale datasets require fewer
parameters compared to standard classical benchmarks. Finally, we implemented
our quantum transformers on superconducting quantum computers and obtained
encouraging results for up to six qubit experiments.
- Abstract(参考訳): この研究において、量子トランスフォーマーは、自然言語処理や画像解析において非常に高性能であることが知られている最先端の古典的トランスフォーマーニューラルネットワークアーキテクチャを拡張して、詳細を設計、分析する。
データローディングと直交神経層のためのパラメトリス量子回路を用いた先行研究に基づいて,複合行列に基づく量子トランスフォーマーを含む,トレーニングと推論のための3種類の量子トランスフォーマーを導入し,漸近的実行時間とモデルパラメータ数の両方の観点から,量子注意機構の理論的利点を保証した。
これらの量子アーキテクチャは浅い量子回路を用いて構築することができ、定性的に異なる分類モデルを生成する。
提案された3つの量子注意層は、古典的トランスフォーマーのスペクトルによって異なり、より量子的特性を示す。
量子トランスの構成要素として,行列を量子状態としてロードする新しい手法と,異なるレベルの接続性と量子コンピュータの品質に適応可能な2つのトレーニング可能な量子直交層を提案する。
我々は,標準的な医用画像データセット上で量子トランスフォーマーの広範なシミュレーションを行い,その性能は,古典的視覚トランスフォーマーを含む古典的ベンチマークと比較した。
これらの小さなデータセットでトレーニングした量子トランスフォーマーは、標準的な古典的なベンチマークに比べてパラメータが少なくなる。
最後に,超伝導量子コンピュータに量子トランスを実装し,最大6量子ビット実験の励磁結果を得た。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Quantum Transfer Learning for MNIST Classification Using a Hybrid Quantum-Classical Approach [0.0]
本研究は、画像分類タスクにおける量子コンピューティングと古典的機械学習の統合について検討する。
両パラダイムの強みを生かしたハイブリッド量子古典的アプローチを提案する。
実験結果から、ハイブリッドモデルが量子コンピューティングと古典的手法を統合する可能性を示す一方で、量子結果に基づいて訓練された最終モデルの精度は、圧縮された特徴に基づいて訓練された古典的モデルよりも低いことが示唆された。
論文 参考訳(メタデータ) (2024-08-05T22:16:27Z) - Supervised binary classification of small-scale digits images with a trapped-ion quantum processor [56.089799129458875]
量子プロセッサは、考慮された基本的な分類タスクを正しく解くことができることを示す。
量子プロセッサの能力が向上するにつれ、機械学習の有用なツールになり得る。
論文 参考訳(メタデータ) (2024-06-17T18:20:51Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - A Comparative Analysis of Hybrid-Quantum Classical Neural Networks [5.247197295547863]
本稿では、画像分類のための異なるハイブリッド量子古典機械学習アルゴリズム間の広範な比較分析を行う。
この精度に基づくハイブリッドモデルの性能比較により、回路の量子層数と量子ビット数の変化との相関関係におけるハイブリッド量子古典収束の理解が得られる。
論文 参考訳(メタデータ) (2024-02-16T09:59:44Z) - Quantum-classical simulation of quantum field theory by quantum circuit
learning [0.0]
量子回路学習を用いて量子場理論(QFT)をシミュレートする。
我々の予測は厳密な古典計算の結果と密接に一致している。
このハイブリッド量子古典的アプローチは、最先端量子デバイス上での大規模QFTを効率的にシミュレートする可能性を示している。
論文 参考訳(メタデータ) (2023-11-27T20:18:39Z) - Quantum Neural Architecture Search with Quantum Circuits Metric and
Bayesian Optimization [2.20200533591633]
各量子状態に対するゲートの作用を特徴付ける新しい量子ゲート距離を提案する。
提案手法は、経験的量子機械学習の3つの問題において、ベンチマークを著しく上回っている。
論文 参考訳(メタデータ) (2022-06-28T16:23:24Z) - Tunable photon-mediated interactions between spin-1 systems [68.8204255655161]
我々は、光子を媒介とする効果的なスピン-1系間の相互作用に、光遷移を持つマルチレベルエミッタを利用する方法を示す。
本結果は,空洞QEDおよび量子ナノフォトニクス装置で利用可能な量子シミュレーションツールボックスを拡張した。
論文 参考訳(メタデータ) (2022-06-03T14:52:34Z) - Multiclass classification using quantum convolutional neural networks
with hybrid quantum-classical learning [0.5999777817331318]
本稿では,量子畳み込みニューラルネットワークに基づく量子機械学習手法を提案する。
提案手法を用いて,MNISTデータセットの4クラス分類を,データエンコーディングの8つのキュービットと4つのアクニラキュービットを用いて実証する。
この結果から,学習可能なパラメータの数に匹敵する古典的畳み込みニューラルネットワークによる解の精度が示された。
論文 参考訳(メタデータ) (2022-03-29T09:07:18Z) - Information Scrambling in Computationally Complex Quantum Circuits [56.22772134614514]
53量子ビット量子プロセッサにおける量子スクランブルのダイナミクスを実験的に検討する。
演算子の拡散は効率的な古典的モデルによって捉えられるが、演算子の絡み合いは指数関数的にスケールされた計算資源を必要とする。
論文 参考訳(メタデータ) (2021-01-21T22:18:49Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。