論文の概要: End-to-End Analysis of Charge Stability Diagrams with Transformers
- arxiv url: http://arxiv.org/abs/2508.15710v1
- Date: Thu, 21 Aug 2025 16:54:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.410984
- Title: End-to-End Analysis of Charge Stability Diagrams with Transformers
- Title(参考訳): 変圧器を用いた電荷安定性図のエンドツーエンド解析
- Authors: Rahul Marchand, Lucas Schorling, Cornelius Carlsson, Jonas Schuff, Barnaby van Straaten, Taylor L. Patti, Federico Fedele, Joshua Ziegler, Parth Girdhar, Pranav Vaidhyanathan, Natalia Ares,
- Abstract要約: トランスフォーマーモデルとエンドツーエンドの学習フレームワークは、人工知能の分野に急速に革命をもたらしている。
本研究では,半導体量子ドットアレイの電荷安定性図を解析するために物体検出変換器を適用する。
3つの異なるスピン量子ビットアーキテクチャの性能において、畳み込みニューラルネットワークを上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.7570270968488804
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transformer models and end-to-end learning frameworks are rapidly revolutionizing the field of artificial intelligence. In this work, we apply object detection transformers to analyze charge stability diagrams in semiconductor quantum dot arrays, a key task for achieving scalability with spin-based quantum computing. Specifically, our model identifies triple points and their connectivity, which is crucial for virtual gate calibration, charge state initialization, drift correction, and pulse sequencing. We show that it surpasses convolutional neural networks in performance on three different spin qubit architectures, all without the need for retraining. In contrast to existing approaches, our method significantly reduces complexity and runtime, while enhancing generalizability. The results highlight the potential of transformer-based end-to-end learning frameworks as a foundation for a scalable, device- and architecture-agnostic tool for control and tuning of quantum dot devices.
- Abstract(参考訳): トランスフォーマーモデルとエンドツーエンドの学習フレームワークは、人工知能の分野に急速に革命をもたらしている。
本研究では,半導体量子ドットアレイの電荷安定性図を解析するためにオブジェクト検出変換器を適用し,スピンベース量子コンピューティングでスケーラビリティを実現するための重要な課題である。
具体的には,仮想ゲートキャリブレーション,電荷状態の初期化,ドリフト補正,パルスシークエンシングにおいて重要な3点とその接続性を特定する。
3つの異なるスピン量子ビットアーキテクチャの性能において、畳み込みニューラルネットワークを超越していることを示す。
既存手法とは対照的に,本手法は一般化性を高めつつ,複雑性と実行性を著しく低減する。
この結果は、量子ドットデバイスの制御とチューニングのためのスケーラブルでデバイスに依存しないツールの基礎として、トランスフォーマーベースのエンドツーエンド学習フレームワークの可能性を強調している。
関連論文リスト
- Making Neural Networks More Suitable for Approximate Clifford+T Circuit Synthesis [0.7449724123186384]
我々は、強化学習誘導量子回路合成の性能を向上させる深層学習技術を開発した。
トレーニング中に小さなランダムなユニタリ摂動でデータを増やすことで、より堅牢な学習が可能になることを示す。
また、画像処理技術を用いて数値データを符号化することで、ネットワークがデータの小さいが重要な変化をより正確に検出できることを示す。
論文 参考訳(メタデータ) (2025-04-22T15:51:32Z) - A Survey of Quantum Transformers: Architectures, Challenges and Outlooks [82.4736481748099]
量子変換器は古典変換器の表現力と量子コンピューティングの計算上の利点を統合する。
2022年以降、この地域の研究は急速に拡大し、様々な技術パラダイムや初期の応用がもたらされた。
本稿では,量子トランスモデルの包括的,体系的,詳細な調査を行う。
論文 参考訳(メタデータ) (2025-04-04T05:40:18Z) - UDiTQC: U-Net-Style Diffusion Transformer for Quantum Circuit Synthesis [13.380226276791818]
現在の拡散モデルは、U-Netアーキテクチャに基づくアプローチであるが、計算効率とグローバルコンテキストのモデル化に関する課題に遭遇する。
マルチスケール特徴抽出におけるU-Netの強みとグローバルコンテキストをモデル化するTransformerの機能を組み合わせた,新しいU-Netスタイルの拡散変換アーキテクチャであるUDiTを提案する。
論文 参考訳(メタデータ) (2025-01-24T15:15:50Z) - Regression and Classification with Single-Qubit Quantum Neural Networks [0.0]
我々は、回帰処理と分類処理の両方にリソース効率が高くスケーラブルなSQQNN(Single-Qubit Quantum Neural Network)を使用する。
分類にはTaylor級数にインスパイアされた新しいトレーニング手法を導入する。
SQQNNは、MNISTデータセットを含む回帰および分類タスクにおいて、事実上エラーのない、強力なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-12-12T17:35:36Z) - Learning with SASQuaTCh: a Novel Variational Quantum Transformer Architecture with Kernel-Based Self-Attention [0.464982780843177]
本稿では、SASQuaT(Self-Attention Sequential Quantum Transformer Channel)という変分量子回路アーキテクチャを提案する。
提案手法は、単純なゲート演算と多次元量子フーリエ変換を用いたビジョントランスフォーマーネットワークの予測におけるカーネルベース演算子学習の最近の知見を活用する。
提案手法の有効性を検証するため,9量子ビットと少数のパラメータしか持たず,手書き桁のグレースケール画像を高い精度で同時に埋め込み,分類することが可能な画像分類タスクをシミュレーションおよびハードウェアで検討した。
論文 参考訳(メタデータ) (2024-03-21T18:00:04Z) - Towards Fault-Tolerant Quantum Deep Learning: Designing and Analyzing Quantum ResNet and Transformer with Quantum Arithmetic and Linear Algebra Primitives [5.89456905230997]
我々は,深層アーキテクチャ構築における2つの課題と,データ読み込みと測定の禁止的オーバーヘッドを克服する枠組みを導入する。
本フレームワークは,多層量子ResNetおよび量子トランスモデルの設計を可能にする。
我々のアプローチの基盤は、このモジュラリティを促進する新しいデータ転送プロトコルであるDisdisrete Chebyshev Decomposition (DCD)である。
論文 参考訳(メタデータ) (2024-02-29T08:12:02Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。