論文の概要: CutReg: A loss regularizer for enhancing the scalability of QML via adaptive circuit cutting
- arxiv url: http://arxiv.org/abs/2506.14858v1
- Date: Tue, 17 Jun 2025 09:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.435893
- Title: CutReg: A loss regularizer for enhancing the scalability of QML via adaptive circuit cutting
- Title(参考訳): CutReg:適応回路切断によるQMLのスケーラビリティ向上のための損失正規化器
- Authors: Maniraman Periyasamy, Christian Ufrecht, Daniel D. Scherer, Wolfgang Mauerer,
- Abstract要約: この研究はQML最適化プロセスに新たな正規化項を導入し、サンプリングに伴うオーバーヘッドを直接ペナルティ化する。
具体的には、カットオーバーヘッドを最小限に抑えることと、QMLモデルの全体的な精度を維持することの間のトレードオフをナビゲートし、量子的優位性を求めるためにより大きな複雑な問題を研究する方法を模索する。
- 参考スコア(独自算出の注目度): 2.5566599806228987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whether QML can offer a transformative advantage remains an open question. The severe constraints of NISQ hardware, particularly in circuit depth and connectivity, hinder both the validation of quantum advantage and the empirical investigation of major obstacles like barren plateaus. Circuit cutting techniques have emerged as a strategy to execute larger quantum circuits on smaller, less connected hardware by dividing them into subcircuits. However, this partitioning increases the number of samples needed to estimate the expectation value accurately through classical post-processing compared to estimating it directly from the full circuit. This work introduces a novel regularization term into the QML optimization process, directly penalizing the overhead associated with sampling. We demonstrate that this approach enables the optimizer to balance the advantages of gate cutting against the optimization of the typical ML cost function. Specifically, it navigates the trade-off between minimizing the cutting overhead and maintaining the overall accuracy of the QML model, paving the way to study larger complex problems in pursuit of quantum advantage.
- Abstract(参考訳): QMLが変革的な優位性を提供できるかどうかは未解決のままだ。
NISQハードウェアの厳しい制約、特に回路深度と接続性は、量子優位性の検証とバレンプラトーのような主要な障害物の実証研究の両方を妨げる。
回路切断技術は、より小さな、より接続の少ないハードウェア上で、より大きな量子回路をサブ回路に分割して実行する戦略として登場した。
しかし、このパーティショニングは、古典的な後処理によって予測値を正確に推定するために必要なサンプル数を、全回路から直接推定するよりも増加させる。
この研究はQML最適化プロセスに新たな正規化項を導入し、サンプリングに伴うオーバーヘッドを直接ペナルティ化する。
本手法により,典型的なMLコスト関数の最適化に対して,ゲートカットの利点のバランスをとることができることを示す。
具体的には、カットオーバーヘッドを最小限に抑えることと、QMLモデルの全体的な精度を維持することの間のトレードオフをナビゲートし、量子的優位性を求めるためにより大きな複雑な問題を研究する方法を模索する。
関連論文リスト
- FIMA-Q: Post-Training Quantization for Vision Transformers by Fisher Information Matrix Approximation [55.12070409045766]
ポストトレーニング量子化(PTQ)は近年,費用対効果と有望なモデル圧縮パラダイムとして注目されている。
ビジョン変換器(ViT)の現在のPTQ法は、特に低ビット量子化において、精度が著しく低下している。
論文 参考訳(メタデータ) (2025-06-13T07:57:38Z) - Variational quantum algorithms with invariant probabilistic error cancellation on noisy quantum processors [13.51474348538291]
我々は、PECと量子近似最適化アルゴリズム(QAOA)を組み合わせた新しいノイズ適応戦略を提案する。
この手法を超伝導量子プロセッサ上で実験的に検証し,サンプリングコストを90.1%削減した。
これらの結果は、大規模で低ノイズの量子回路でVQAを実行するための有望な道を開き、実用的な量子コンピューティングの進歩への道を開いた。
論文 参考訳(メタデータ) (2025-06-08T08:25:47Z) - Spatial and temporal circuit cutting with hypergraphic partitioning [0.0]
本稿では,空間的シナリオと時間的シナリオの両方に適したハイパーグラフに基づく回路切断手法を提案する。
量子回路を高レベルハイパーグラフとしてモデル化することにより、Stoer-Wagner、Fiduccia-Mattheyses、Kernighan-Linなどの分割を適用できる。
論文 参考訳(メタデータ) (2025-04-12T20:31:07Z) - Enhanced Quantum Circuit Cutting Framework for Sampling Overhead Reduction [25.01488143369413]
ShotQCは、サンプリングオーバーヘッドを効果的に削減する拡張回路切断フレームワークである。
これは、古典的な後処理の複雑さを増大させることなく、サンプリングオーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-12-23T16:34:57Z) - MLQM: Machine Learning Approach for Accelerating Optimal Qubit Mapping [13.958125071955742]
最適量子ビットマッピング(MLQM)の高速化のための機械学習手法を提案する。
まず,事前知識と機械学習に基づくグローバル検索空間の探索手法を提案する。
第2に,学習課題における有効サンプルの可用性の限界に対処するため,MLQMは新たなデータ拡張と改善手法を導入した。
論文 参考訳(メタデータ) (2024-12-04T11:49:09Z) - AffineQuant: Affine Transformation Quantization for Large Language Models [58.45460102764]
ポストトレーニング量子化(PTQ)は、その圧縮効率とトレーニングの文脈における費用対効果により、かなりの関心を集めている。
既存の大規模言語モデル(LLM)のPTQ手法は、事前量子化重みと後量子化重みの間の変換のスケーリングに最適化範囲を制限している。
本稿では,PTQ(AffineQuant)における等価アフィン変換を用いた直接最適化を提唱する。
論文 参考訳(メタデータ) (2024-03-19T08:40:21Z) - CBQ: Cross-Block Quantization for Large Language Models [66.82132832702895]
ポストトレーニング量子化(PTQ)は、超低コストで大規模言語モデル(LLM)を圧縮する上で重要な役割を果たしている。
LLMのためのクロスブロック再構成に基づくPTQ手法CBQを提案する。
CBQはリコンストラクションスキームを使用してクロスブロック依存関係を採用し、エラーの蓄積を最小限に抑えるために複数のブロックにまたがる長距離依存関係を確立する。
論文 参考訳(メタデータ) (2023-12-13T07:56:27Z) - The Accuracy vs. Sampling Overhead Trade-off in Quantum Error Mitigation
Using Monte Carlo-Based Channel Inversion [84.66087478797475]
量子誤差緩和(Quantum error mitigation, QEM)は、変分量子アルゴリズムの計算誤差を低減するための有望な手法の1つである。
我々はモンテカルロサンプリングに基づく実用的なチャネル反転戦略を考察し、さらなる計算誤差を導入する。
計算誤差が誤差のない結果の動的範囲と比較して小さい場合、ゲート数の平方根でスケールすることを示す。
論文 参考訳(メタデータ) (2022-01-20T00:05:01Z) - Scaling Quantum Approximate Optimization on Near-term Hardware [49.94954584453379]
我々は、様々なレベルの接続性を持つハードウェアアーキテクチャのための最適化回路により、期待されるリソース要求のスケーリングを定量化する。
問題の大きさと問題グラフの次数で指数関数的に増大する。
これらの問題は、ハードウェア接続性の向上や、より少ない回路層で高い性能を達成するQAOAの変更によって緩和される可能性がある。
論文 参考訳(メタデータ) (2022-01-06T21:02:30Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。