論文の概要: Quantum Embedding with Transformer for High-dimensional Data
- arxiv url: http://arxiv.org/abs/2402.12704v1
- Date: Tue, 20 Feb 2024 04:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:09:54.831005
- Title: Quantum Embedding with Transformer for High-dimensional Data
- Title(参考訳): 高次元データのためのトランスフォーマによる量子埋め込み
- Authors: Hao-Yuan Chen, Yen-Jui Chang, Shih-Wei Liao, Ching-Ray Chang
- Abstract要約: この研究には視覚変換器(ViT)が組み込まれ、量子的に重要な埋め込み能力が向上した。
この研究は、我々のトランスフォーマーベースのアーキテクチャが、現代の量子機械学習問題に対して非常に汎用的で実践的なアプローチであることを実証的な証拠を示し、分析する。
- 参考スコア(独自算出の注目度): 1.4801853435122907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum embedding with transformers is a novel and promising architecture for
quantum machine learning to deliver exceptional capability on near-term devices
or simulators. The research incorporated a vision transformer (ViT) to advance
quantum significantly embedding ability and results for a single qubit
classifier with around 3 percent in the median F1 score on the BirdCLEF-2021, a
challenging high-dimensional dataset. The study showcases and analyzes
empirical evidence that our transformer-based architecture is a highly
versatile and practical approach to modern quantum machine learning problems.
- Abstract(参考訳): 量子をトランスフォーマーで埋め込むことは、量子機械学習が短期的なデバイスやシミュレーターに例外的な能力を提供するための、新しくて有望なアーキテクチャである。
この研究は、高次元データセットであるBirdCLEF-2021において、中央値F1スコアの約3%の単一量子ビット分類器に対して、量子的に有意な埋め込み能力と結果を向上するための視覚変換器(ViT)を組み込んだ。
この研究は、我々のトランスフォーマーベースのアーキテクチャが現代の量子機械学習問題に対して非常に多機能で実用的なアプローチであることを示す実証的な証拠を提示し分析する。
関連論文リスト
- Quantum Attention for Vision Transformers in High Energy Physics [39.38389619339798]
量子直交ニューラルネットワーク(QONN)を取り入れた新しいハイブリッド量子古典型視覚変換器アーキテクチャを提案する。
この研究は、次世代粒子物理学実験の計算要求に対処する量子強化モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-11-20T18:11:17Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Quantum Vision Transformers for Quark-Gluon Classification [3.350407101925898]
本稿では,変分量子回路を統合したハイブリッド型量子古典視覚変換器アーキテクチャを提案する。
CMS Open Dataのマルチ検出器ジェット画像にモデルを適用し,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-05-16T17:45:54Z) - Learning with SASQuaTCh: a Novel Variational Quantum Transformer Architecture with Kernel-Based Self-Attention [0.464982780843177]
量子回路は、カーネルベースの演算子学習の観点から、自己認識機構を効率的に表現できることを示す。
本研究では、単純なゲート演算と多次元量子フーリエ変換を用いて、視覚トランスネットワークの深い層を表現することができる。
我々は,SASTQuaCh(Self-Attention Sequential Quantum Transformer Channel)と呼ばれる新しい変分量子回路を解析し,単純化された分類問題に対するその有用性を実証する。
論文 参考訳(メタデータ) (2024-03-21T18:00:04Z) - End-to-End Quantum Vision Transformer: Towards Practical Quantum Speedup
in Large-Scale Models [20.72342380227143]
本稿では、革新的な量子残差接続技術を含む、エンドツーエンドの量子ビジョン変換器(QViT)を紹介する。
QViTの徹底的な分析により、理論上指数関数的複雑性と経験的スピードアップが明らかとなり、量子コンピューティングアプリケーションにおけるモデルの効率性とポテンシャルが示される。
論文 参考訳(メタデータ) (2024-02-29T08:12:02Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Quantum Vision Transformers [2.3558144417896583]
本稿では、複合行列に基づく量子変換器を含む、トレーニングと推論のための3種類の量子変換器を紹介する。
我々は,競争力のある標準的な医用画像データセット上で,量子トランスフォーマーの広範なシミュレーションを行った。
超伝導量子コンピュータに量子トランスを実装し,最大6量子ビット実験の励磁結果を得た。
論文 参考訳(メタデータ) (2022-09-16T20:51:23Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z) - AutoTrans: Automating Transformer Design via Reinforced Architecture
Search [52.48985245743108]
本稿では,手作業に適したトランスフォーマーアーキテクチャを実現するために,レイヤノルムの設定方法,スケール,レイヤ数,ヘッド数,アクティベーション関数などを実証的に検討する。
CoNLL03、Multi-30k、IWSLT14、WMT-14の実験は、探索されたトランスモデルが標準トランスモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-09-04T08:46:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。