論文の概要: Data-Efficient Quantum Noise Modeling via Machine Learning
- arxiv url: http://arxiv.org/abs/2509.12933v1
- Date: Tue, 16 Sep 2025 10:30:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.034237
- Title: Data-Efficient Quantum Noise Modeling via Machine Learning
- Title(参考訳): 機械学習によるデータ効率の良い量子ノイズモデリング
- Authors: Yanjun Ji, Marco Roth, David A. Kreplin, Ilia Polian, Frank K. Wilhelm,
- Abstract要約: 超伝導量子プロセッサのための正確なパラメータ化ノイズモデルを構築するための,データ効率のよい機械学習ベースのフレームワークを提案する。
本研究では,小規模回路のみに学習したモデルにより,大規模回路の動作を正確に予測できることを示す。
- 参考スコア(独自算出の注目度): 0.3279176777295314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maximizing the computational utility of near-term quantum processors requires predictive noise models that inform robust, noise-aware compilation and error mitigation. Conventional models often fail to capture the complex error dynamics of real hardware or require prohibitive characterization overhead. We introduce a data-efficient, machine learning-based framework to construct accurate, parameterized noise models for superconducting quantum processors. Our approach circumvents costly characterization protocols by learning hardware-specific error parameters directly from the measurement data of existing application and benchmark circuits. The generality and robustness of the framework are demonstrated through comprehensive benchmarking across multiple quantum devices and algorithms. Crucially, we show that a model trained exclusively on small-scale circuits accurately predicts the behavior of larger validation circuits. Our data-efficient approach achieves up to a 65% improvement in model fidelity quantified by the Hellinger distance between predicted and experimental circuit output distributions, compared to standard noise models derived from device properties. This work establishes a practical paradigm for noise characterization, providing a crucial tool for developing more effective noise-aware compilation and error-mitigation strategies.
- Abstract(参考訳): 短期量子プロセッサの計算効率の最大化には、堅牢でノイズ対応のコンパイルとエラー軽減を知らせる予測ノイズモデルが必要である。
従来のモデルでは、実際のハードウェアの複雑なエラーのダイナミクスを捉えたり、不当なキャラクタリゼーションのオーバーヘッドを伴わない場合が多い。
超伝導量子プロセッサのための正確なパラメータ化ノイズモデルを構築するための,データ効率のよい機械学習ベースのフレームワークを提案する。
提案手法は,既存のアプリケーションおよびベンチマーク回路の測定データから直接ハードウェア固有のエラーパラメータを学習することにより,コストのかかる特徴付けプロトコルを回避する。
フレームワークの汎用性と堅牢性は、複数の量子デバイスとアルゴリズムにわたる包括的なベンチマークを通じて実証される。
重要なことは、小規模回路のみに特化して訓練されたモデルが、より大きな検証回路の挙動を正確に予測できることである。
提案手法は,予測回路出力分布と実験回路出力分布のヘリンジャー距離で定量化したモデル忠実度を,デバイス特性から導出した標準ノイズモデルと比較して最大65%向上する。
本研究は,ノイズ評価のための実践的パラダイムを確立し,より効果的なノイズ認識コンパイルおよびエラー軽減戦略を開発するための重要なツールを提供する。
関連論文リスト
- Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models [57.49136894315871]
テストタイムスケーリングの新しいパラダイムは、推論モデルと生成視覚モデルにおいて驚くべきブレークスルーをもたらした。
本稿では,テスト時間スケーリングの知識をモデルに組み込むことの課題に対する1つの解決策を提案する。
拡散モデルにおいて、初期入力ノイズを変調するノイズハイパーネットワークにより、報酬誘導試験時間雑音の最適化を行う。
論文 参考訳(メタデータ) (2025-08-13T17:33:37Z) - Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization [33.13911801301048]
ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:12:58Z) - Sparse Non-Markovian Noise Modeling of Transmon-Based Multi-Qubit Operations [0.0]
量子力学におけるノイズの影響は、現在の量子プロセッサが正確な量子計算を行うのを防ぐ主要な要因の1つである。
本稿では,トランスモンデバイス上でのマルチキュービット動作の効果的なノイズモデリング手法を提案する。
本モデルでは,非時間的相関ノイズ源を含む1ビットおよび2ビットの幅広い振る舞いを捕捉し,予測できることが示されている。
論文 参考訳(メタデータ) (2024-12-20T17:37:26Z) - Volumetric Benchmarking of Quantum Computing Noise Models [3.0098885383612104]
本稿では、量子コンピューティングアプリケーションのためのノイズモデルベンチマークのための体系的なアプローチを提案する。
ハードウェア実験の結果と、量子回路の代表集合に対するノイズモデルの予測を比較する。
また、ノイズモデルを構築し、一連のトレーニング回路を用いてパラメータを最適化する。
論文 参考訳(メタデータ) (2023-06-14T10:49:01Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。