論文の概要: Characterizing Scaling Trends of Post-Compilation Circuit Resources for NISQ-era QML Models
- arxiv url: http://arxiv.org/abs/2509.11980v1
- Date: Mon, 15 Sep 2025 14:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.341215
- Title: Characterizing Scaling Trends of Post-Compilation Circuit Resources for NISQ-era QML Models
- Title(参考訳): NISQ時代のQMLモデルにおけるポストコンパイル回路資源のスケーリング動向
- Authors: Rupayan Bhattacharjee, Pau Escofet, Santiago Rodrigo, Sergi Abadal, Carmen G. Almudever, Eduard Alarcón,
- Abstract要約: 本研究では,接続制約のあるNISQプロセッサ上での量子機械学習(QML)モデルに対する後コンパイル回路リソースのスケーリング特性について検討する。
プロセッサトポロジ(線形,リング,グリッド,スター)にまたがる量子カーネル法と量子ニューラルネットワークを解析し,SWAPオーバーヘッド,回路深さ,2量子ゲート数に着目した。
- 参考スコア(独自算出の注目度): 1.7023697455258093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work investigates the scaling characteristics of post-compilation circuit resources for Quantum Machine Learning (QML) models on connectivity-constrained NISQ processors. We analyze Quantum Kernel Methods and Quantum Neural Networks across processor topologies (linear, ring, grid, star), focusing on SWAP overhead, circuit depth, and two-qubit gate count. Our findings reveal that entangling strategy significantly impacts resource scaling, with circular and shifted circular alternating strategies showing steepest scaling. Ring topology demonstrates slowest resource scaling for most QML models, while Tree Tensor Networks lose their logarithmic depth advantage after compilation. Through fidelity analysis under realistic noise models, we establish quantitative relationships between hardware improvements and maximum reliable qubit counts, providing crucial insights for hardware-aware QML model design across the full-stack architecture.
- Abstract(参考訳): 本研究では,接続制約のあるNISQプロセッサ上での量子機械学習(QML)モデルに対する後コンパイル回路リソースのスケーリング特性について検討する。
プロセッサトポロジ(線形,リング,グリッド,スター)にまたがる量子カーネル法と量子ニューラルネットワークを解析し,SWAPオーバーヘッド,回路深さ,2量子ゲート数に着目した。
その結果,エンタングリング戦略が資源のスケーリングに大きく影響していることが判明した。
リングトポロジは、ほとんどのQMLモデルで最も遅いリソーススケーリングを示す一方、Tree Tensor Networksはコンパイル後に対数深さのアドバンテージを失う。
現実的なノイズモデルの下での忠実度解析により、ハードウェアの改善と最大信頼量子ビット数との定量的な関係を確立し、フルスタックアーキテクチャにおけるハードウェア対応QMLモデル設計の重要な洞察を提供する。
関連論文リスト
- Quantum Machine Learning for UAV Swarm Intrusion Detection [25.52804434998647]
UAV群における侵入検知は、高移動量、非定常交通、重度の階級不均衡によって複雑である。
量子カーネル、変分量子ニューラルネットワーク(QNN)、ハイブリッド量子学習ニューラルネットワーク(QT-NN)の3つのアプローチをベンチマークする。
すべてのモデルは8機能フロー表現を消費し、同じ前処理、バランス、ノイズモデル仮定の下で評価される。
量子カーネルとQT-NNは低データ、非線形なレジームで優れており、QNNはトレーニング容易性の問題に悩まされている。
論文 参考訳(メタデータ) (2025-09-01T22:36:30Z) - RhoDARTS: Differentiable Quantum Architecture Search with Density Matrix Simulations [48.670876200492415]
変分量子アルゴリズム(VQA)は、強力なノイズ中間スケール量子(NISQ)コンピュータを利用するための有望なアプローチである。
本稿では,量子混合状態の進化をモデルとしたQASアルゴリズムである$rho$DARTSを提案する。
論文 参考訳(メタデータ) (2025-06-04T08:30:35Z) - Machine Learning Approach towards Quantum Error Mitigation for Accurate Molecular Energetics [0.0]
我々は,誤り軽減技術の実現に向けて,グラフニューラルネットワークと回帰ベース機械学習(ML)アーキテクチャを考案した。
いくつかの強い相関を持つ分子に対する予測エネルギーの桁違いの改善を示す。
論文 参考訳(メタデータ) (2025-04-09T17:49:09Z) - RSQ: Learning from Important Tokens Leads to Better Quantized LLMs [65.5558181902098]
レイヤーワイド量子化は、高価なリトレーニングなしで大きなモデルを効率的に圧縮するための重要な技術である。
モデルに回転を適用して外乱を緩和するRSQ(Rotate, Scale, then Quantize)を提案する。
RSQは、複数の下流タスクと3つのモデルファミリーで、ベースラインメソッドを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-03-03T18:46:33Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Scaling Limits of Quantum Repeater Networks [62.75241407271626]
量子ネットワーク(QN)は、セキュアな通信、強化されたセンシング、効率的な分散量子コンピューティングのための有望なプラットフォームである。
量子状態の脆弱な性質のため、これらのネットワークはスケーラビリティの観点から大きな課題に直面している。
本稿では,量子リピータネットワーク(QRN)のスケーリング限界について解析する。
論文 参考訳(メタデータ) (2023-05-15T14:57:01Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification [6.891238879512672]
量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
論文 参考訳(メタデータ) (2022-02-02T15:29:46Z) - Scaling Quantum Approximate Optimization on Near-term Hardware [49.94954584453379]
我々は、様々なレベルの接続性を持つハードウェアアーキテクチャのための最適化回路により、期待されるリソース要求のスケーリングを定量化する。
問題の大きさと問題グラフの次数で指数関数的に増大する。
これらの問題は、ハードウェア接続性の向上や、より少ない回路層で高い性能を達成するQAOAの変更によって緩和される可能性がある。
論文 参考訳(メタデータ) (2022-01-06T21:02:30Z) - Generative machine learning with tensor networks: benchmarks on
near-term quantum computers [0.0]
テンソルネットワーク(TN)の観点から,NISQデバイス上での量子支援機械学習(QAML)について検討する。
特に、古典的手法を用いてTNベースのQAMLモデルを設計、最適化するためのフレームワークをレイアウトし、量子ハードウェア上で動作させるためにこれらのモデルをコンパイルする。
本稿では,MPS QAMLモデルの性能を評価するための正確なベンチマーク問題と,標準MNIST手書き桁データセットへの適用について述べる。
論文 参考訳(メタデータ) (2020-10-07T20:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。