論文の概要: BenchRL-QAS: Benchmarking reinforcement learning algorithms for quantum architecture search
- arxiv url: http://arxiv.org/abs/2507.12189v2
- Date: Sat, 27 Sep 2025 08:44:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 20:10:04.481677
- Title: BenchRL-QAS: Benchmarking reinforcement learning algorithms for quantum architecture search
- Title(参考訳): BenchRL-QAS:量子アーキテクチャ探索のための強化学習アルゴリズムのベンチマーク
- Authors: Azhar Ikhtiarudin, Aditi Das, Param Thakkar, Akash Kundu,
- Abstract要約: 量子アーキテクチャ探索(QAS)における強化学習のための統合ベンチマークフレームワークであるBenchRL-QASを提案する。
本研究は、量子問題において、値ベースおよびポリシーグレートな手法を含む9種類のRLエージェントを体系的に評価する。
その結果,単一RL法が支配的ではなく,タスクタイプ,キュービット数,ノイズ条件に依存していることがわかった。
副産物として、RLベースのVQCにおける慎重に選択されたRLアルゴリズムが、ベースラインVQCよりも優れていることを観察する。
- 参考スコア(独自算出の注目度): 1.5743861420663843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present BenchRL-QAS, a unified benchmarking framework for reinforcement learning (RL) in quantum architecture search (QAS) across a spectrum of variational quantum algorithm tasks on 2- to 8-qubit systems. Our study systematically evaluates 9 different RL agents, including both value-based and policy-gradient methods, on quantum problems such as variational eigensolver, quantum state diagonalization, variational quantum classification (VQC), and state preparation, under both noiseless and noisy execution settings. To ensure fair comparison, we propose a weighted ranking metric that integrates accuracy, circuit depth, gate count, and training time. Results demonstrate that no single RL method dominates universally, the performance dependents on task type, qubit count, and noise conditions providing strong evidence of no free lunch principle in RL-QAS. As a byproduct we observe that a carefully chosen RL algorithm in RL-based VQC outperforms baseline VQCs. BenchRL-QAS establishes the most extensive benchmark for RL-based QAS to date, codes and experimental made publicly available for reproducibility and future advances.
- Abstract(参考訳): 本稿では,量子アーキテクチャ探索(QAS)における強化学習(RL)のための統合ベンチマークフレームワークであるBenchRL-QASについて述べる。
本研究は, 変動固有解法, 量子状態対角化, 変分量子分類 (VQC) , 状態準備などの量子問題に対して, ノイズのない, ノイズの多い実行条件下で, 9種類のRLエージェントを系統的に評価した。
そこで本研究では,精度,回路深度,ゲート数,トレーニング時間を統合した重み付きランキング指標を提案する。
その結果,RL法はタスクタイプ,キュービット数,ノイズ条件に依存し,RL-QASのフリーランチ原理が存在しないという強い証拠が得られた。
副産物として、RLベースのVQCにおける慎重に選択されたRLアルゴリズムが、ベースラインVQCよりも優れていることを観察する。
BenchRL-QASは、RLベースのQAS、コード、実験的なベンチマークを、再現性と将来の進歩のために公開している。
関連論文リスト
- Variational Quantum Circuit-Based Reinforcement Learning for Dynamic Portfolio Optimization [7.349651640835185]
本稿では,変分量子回路に基づく動的ポートフォリオ最適化問題に対する量子強化学習ソリューションを提案する。
我々の量子エージェントは、古典的なディープRLモデルに匹敵するリスク調整性能を達成できることを示す。
論文 参考訳(メタデータ) (2026-01-20T15:17:24Z) - QeRL: Beyond Efficiency -- Quantization-enhanced Reinforcement Learning for LLMs [80.76334908639745]
大規模言語モデル(LLM)のための量子化強化学習フレームワークQeRLを提案する。
QeRLは、NVFP4量子化とローランド適応(LoRA)を組み合わせた問題に対処する。
実験によると、QeRLはロールアウトフェーズで1.5倍以上のスピードアップを実現している。
論文 参考訳(メタデータ) (2025-10-13T17:55:09Z) - CleanQRL: Lightweight Single-file Implementations of Quantum Reinforcement Learning Algorithms [2.536162003546062]
CleanQRLは、多くの量子強化学習アルゴリズムの単一スクリプト実装を提供するライブラリである。
私たちのライブラリは、研究者が自身のニーズに迅速に適応できるように、明確で分かりやすいスクリプトを提供します。
論文 参考訳(メタデータ) (2025-07-10T09:53:39Z) - RhoDARTS: Differentiable Quantum Architecture Search with Density Matrix Simulations [48.670876200492415]
変分量子アルゴリズム(VQA)は、強力なノイズ中間スケール量子(NISQ)コンピュータを利用するための有望なアプローチである。
本稿では,量子混合状態の進化をモデルとしたQASアルゴリズムである$rho$DARTSを提案する。
論文 参考訳(メタデータ) (2025-06-04T08:30:35Z) - Provably Robust Training of Quantum Circuit Classifiers Against Parameter Noise [49.97673761305336]
ノイズは、信頼できる量子アルゴリズムを達成するための大きな障害である。
本稿では,パラメータ化量子回路分類器のロバスト性を高めるための雑音耐性学習理論とアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-24T02:51:34Z) - Benchmarking Quantum Reinforcement Learning [2.536162003546062]
量子強化学習(QRL)は、量子力学の原理を活用して強化学習(RL)アルゴリズムの性能を向上させる、有望な研究分野として登場した。
QRLが古典的なRLに対して人工的な問題定式化以上の優位性を示すかどうかはまだ不明である。
QRL研究のどのストリームが最大の可能性を示すのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2025-02-07T13:28:20Z) - Performance Benchmarking of Quantum Algorithms for Hard Combinatorial Optimization Problems: A Comparative Study of non-FTQC Approaches [0.0]
本研究は、4つの異なる最適化問題にまたがっていくつかの非フォールト耐性量子コンピューティングアルゴリズムを体系的にベンチマークする。
我々のベンチマークには、変分量子固有解法など、ノイズの多い中間スケール量子(NISQ)アルゴリズムが含まれている。
以上の結果から,FTQC以外のアルゴリズムは全ての問題に対して最適に動作しないことが明らかとなり,アルゴリズム戦略の調整の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-10-30T08:41:29Z) - OGBench: Benchmarking Offline Goal-Conditioned RL [72.00291801676684]
オフライン目標条件強化学習(GCRL)は強化学習における大きな問題である。
オフラインゴール条件RLにおけるアルゴリズム研究のための,新しい高品質なベンチマークであるOGBenchを提案する。
論文 参考訳(メタデータ) (2024-10-26T06:06:08Z) - SF-DQN: Provable Knowledge Transfer using Successor Feature for Deep Reinforcement Learning [89.04776523010409]
本稿では、複数のRL問題が異なる報酬関数を持つが、基礎となる遷移力学を共有する転写強化学習(RL)問題を考察する。
この設定では、各RL問題(タスク)のQ-関数を後継特徴(SF)と報酬マッピングに分解することができる。
GPIを用いたSF-DQNの証明可能な一般化保証を用いた最初の収束解析を確立する。
論文 参考訳(メタデータ) (2024-05-24T20:30:14Z) - A quantum information theoretic analysis of reinforcement learning-assisted quantum architecture search [0.0]
本研究では,変分量子状態対角化問題に適したアンサッツ製造のためのRL-QASについて検討した。
我々はこれらの知見を活用して、最適な資源を用いてランダムな量子状態と対角化するために、QASの絡み合った許容アンサッツを考案する。
論文 参考訳(メタデータ) (2024-04-09T09:54:59Z) - Quantum Subroutine for Variance Estimation: Algorithmic Design and Applications [80.04533958880862]
量子コンピューティングは、アルゴリズムを設計する新しい方法の基礎となる。
どの場の量子スピードアップが達成できるかという新たな課題が生じる。
量子サブルーチンの設計は、従来のサブルーチンよりも効率的で、新しい強力な量子アルゴリズムに固い柱を向ける。
論文 参考訳(メタデータ) (2024-02-26T09:32:07Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - Quantum Annealing for Single Image Super-Resolution [86.69338893753886]
単一画像超解像(SISR)問題を解くために,量子コンピューティングに基づくアルゴリズムを提案する。
提案したAQCアルゴリズムは、SISRの精度を維持しつつ、古典的なアナログよりも向上したスピードアップを実現する。
論文 参考訳(メタデータ) (2023-04-18T11:57:15Z) - Reinforcement Learning Quantum Local Search [0.0]
我々は、量子局所探索(QLS)におけるサブプロブレム選択の改善のためのエージェントを訓練するための強化学習(RL)に基づくアプローチを提案する。
提案手法は,完全連結ランダムイジング問題に対するQLSの平均近似比を効果的に向上することを示した。
論文 参考訳(メタデータ) (2023-04-13T13:07:19Z) - Asynchronous training of quantum reinforcement learning [0.8702432681310399]
変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
論文 参考訳(メタデータ) (2023-01-12T15:54:44Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - Quantum agents in the Gym: a variational quantum algorithm for deep
Q-learning [0.0]
本稿では、離散的かつ連続的な状態空間に対するRLタスクを解くために使用できるパラメタライズド量子回路(PQC)のトレーニング手法を提案する。
量子Q学習エージェントのどのアーキテクチャ選択が、特定の種類の環境をうまく解決するのに最も重要であるかを検討する。
論文 参考訳(メタデータ) (2021-03-28T08:57:22Z) - Quantum circuit architecture search for variational quantum algorithms [88.71725630554758]
本稿では、QAS(Quantum Architecture Search)と呼ばれるリソースと実行時の効率的なスキームを提案する。
QASは、よりノイズの多い量子ゲートを追加することで得られる利点と副作用のバランスをとるために、自動的にほぼ最適アンサッツを求める。
数値シミュレータと実量子ハードウェアの両方に、IBMクラウドを介してQASを実装し、データ分類と量子化学タスクを実現する。
論文 参考訳(メタデータ) (2020-10-20T12:06:27Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。