論文の概要: DistributedEstimator: Distributed Training of Quantum Neural Networks via Circuit Cutting
- arxiv url: http://arxiv.org/abs/2602.16233v1
- Date: Wed, 18 Feb 2026 07:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.538476
- Title: DistributedEstimator: Distributed Training of Quantum Neural Networks via Circuit Cutting
- Title(参考訳): Distributed Estimator:回路切断による量子ニューラルネットワークの分散トレーニング
- Authors: Prabhjot Singh, Adel N. Toosi, Rajkumar Buyya,
- Abstract要約: ここでは,カット数の増加に伴って増大する,エンド・ツー・エンドのオーバヘッドが大幅に増加することを示す。
一致したトレーニング予算の下で精度と堅牢性が維持されているかを評価する。
以上の結果から,学習作業における回路切断の実践的スケーリングは,再構成の削減と重なり合うことが示唆された。
- 参考スコア(独自算出の注目度): 14.601201674870202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Circuit cutting decomposes a large quantum circuit into a collection of smaller subcircuits. The outputs of these subcircuits are then classically reconstructed to recover the original expectation values. While prior work characterises cutting overhead largely in terms of subcircuit counts and sampling complexity, its end-to-end impact on iterative, estimator-driven training pipelines remains insufficiently measured from a systems perspective. In this paper, we propose a cut-aware estimator execution pipeline that treats circuit cutting as a staged distributed workload and instruments each estimator query into partitioning, subexperiment generation, parallel execution, and classical reconstruction phases. Using logged runtime traces and learning outcomes on two binary classification workloads (Iris and MNIST), we quantify cutting overheads, scaling limits, and sensitivity to injected stragglers, and we evaluate whether accuracy and robustness are preserved under matched training budgets. Our measurements show that cutting introduces substantial end-to-end overheads that grow with the number of cuts, and that reconstruction constitutes a dominant fraction of per-query time, bounding achievable speed-up under increased parallelism. Despite these systems costs, test accuracy and robustness are preserved in the measured regimes, with configuration-dependent improvements observed in some cut settings. These results indicate that practical scaling of circuit cutting for learning workloads hinges on reducing and overlapping reconstruction and on scheduling policies that account for barrier-dominated critical paths.
- Abstract(参考訳): 回路切断は、大きな量子回路を小さなサブ回路の集合に分解する。
これらのサブ回路の出力は古典的に再構成され、元の期待値が復元される。
従来の作業では、サブサーキット数とサンプリングの複雑さの点でオーバーヘッドの削減を特徴付けていたが、その終端が反復的、推定器駆動のトレーニングパイプラインに与える影響は、システムの観点からは不十分なままである。
本稿では,回路切断を段階的分散作業負荷として扱うカットアウェアな推定器実行パイプラインを提案し,各推定器クエリを分割,サブ実験生成,並列実行,古典的再構成フェーズに分割する。
ログ化された実行トレースと2つのバイナリ分類ワークロード(IrisとMNIST)の学習結果を用いて、トラグラー注入時のオーバーヘッドの削減、スケーリング制限、感度を定量化し、一致したトレーニング予算の下で精度と堅牢性が保存されているかどうかを評価する。
以上の結果から,切削は切削数の増大に伴って増大する実質的なエンド・ツー・エンドのオーバーヘッドを生じさせ,並列化の増大により達成可能なスピードアップを達成できることが示唆された。
これらのシステムコストにもかかわらず、テスト精度とロバスト性は測定されたレシエーションに保持され、いくつかのカット設定で構成に依存した改善が観察される。
これらの結果から,学習負荷に対する回路切削の実践的スケーリングは,再設計の削減と重複,およびバリアに支配されるクリティカルパスを考慮したスケジューリングポリシに起因していることが示唆された。
関連論文リスト
- Sparse Attention Post-Training for Mechanistic Interpretability [55.030850996535776]
本稿では,トランスフォーマーの注意を犠牲にすることなく,簡易なポストトレーニング手法を提案する。
制約された余剰目的の下でフレキシブルな空間規則化を適用することで、1Bパラメータまでのモデルで、初期トレーニング損失を抑えつつ、注意接続性を$approx 0.3 %に抑えることができることを示す。
論文 参考訳(メタデータ) (2025-12-05T16:40:08Z) - Provable Benefit of Curriculum in Transformer Tree-Reasoning Post-Training [76.12556589212666]
学習後のカリキュラムは指数関数的複雑性のボトルネックを回避していることを示す。
結果のみの報酬信号の下では、強化学習の微調整は、サンプルの複雑さを高い精度で達成する。
カリキュラムを意識したクエリにより、報奨託書の呼び出しとサンプリングコストの両方を指数関数的に削減するテストタイムスケーリングの保証を確立する。
論文 参考訳(メタデータ) (2025-11-10T18:29:54Z) - In-memory Training on Analog Devices with Limited Conductance States via Multi-tile Residual Learning [59.091567092071564]
インメモリトレーニングは通常、デジタルベースラインに合わせて少なくとも8ビットのコンダクタンス状態を必要とする。
ReRAMのような多くの有望な中間デバイスは、製造制約のため、約4ビットの解像度しか提供しない。
本稿では,残差を補うために複数のクロスバータイルを逐次学習する語彙学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-02T19:44:25Z) - Fast Training of Recurrent Neural Networks with Stationary State Feedbacks [48.22082789438538]
リカレントニューラルネットワーク(RNN)は最近、Transformerよりも強力なパフォーマンスと高速な推論を実証している。
BPTTを固定勾配フィードバック機構で置き換える新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-29T14:45:52Z) - A Case for Quantum Circuit Cutting for NISQ Applications: Impact of topology, determinism, and sparsity [15.339699314849]
本稿では, 量子回路切断戦略において, 短期量子コンピューティングのための変分アルゴリズムが適していることを示す。
回路切断の以前の実証は、指数的実行と後処理のコストに焦点を当てていた。
実現可能なアンサツェを6つのアンサッツ層を持つ200キュービット以上まで拡張します。
論文 参考訳(メタデータ) (2024-12-23T19:39:48Z) - Backpropagation scaling in parameterised quantum circuits [0.0]
我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
論文 参考訳(メタデータ) (2023-06-26T18:00:09Z) - Circuit Cutting with Non-Maximally Entangled States [59.11160990637615]
分散量子コンピューティングは、複数のデバイスの計算能力を組み合わせて、個々のデバイスの限界を克服する。
回路切断技術は、古典的な通信を通じて量子計算の分配を可能にする。
量子テレポーテーション(quantum teleportation)は、指数的なショットの増加を伴わない量子計算の分布を可能にする。
非最大エンタングル量子ビット対を利用する新しい回路切断法を提案する。
論文 参考訳(メタデータ) (2023-06-21T08:03:34Z) - Doubly optimal parallel wire cutting without ancilla qubits [0.4394730767364254]
利用可能な量子ビットの品質と量の制限は、短期および早期のフォールトトレラント量子コンピュータの適用に重大な障害をもたらす。
本稿では,並列な$n$-qubitアイデンティティチャネルをローカル操作と古典通信の集合に分解する問題について検討する。
本稿では, サンプリングオーバーヘッドとチャネル数の両方において最小限のオーバーヘッドを達成できる, 相互に偏りのないベースに基づくチャネルを最適に切断する手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T17:59:18Z) - Age-Based Coded Computation for Bias Reduction in Distributed Learning [57.9123881133818]
コード計算は、分散学習の高速化に使用することができる。
勾配ベクトルの部分回復は、各反復時の計算時間をさらに短縮することができる。
重なり合う行動が時間とともに相関すると、推定バイアスが特に顕著になる。
論文 参考訳(メタデータ) (2020-06-02T17:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。