論文の概要: CleanQRL: Lightweight Single-file Implementations of Quantum Reinforcement Learning Algorithms
- arxiv url: http://arxiv.org/abs/2507.07593v1
- Date: Thu, 10 Jul 2025 09:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.347973
- Title: CleanQRL: Lightweight Single-file Implementations of Quantum Reinforcement Learning Algorithms
- Title(参考訳): CleanQRL:量子強化学習アルゴリズムの軽量シングルファイル実装
- Authors: Georg Kruse, Rodrigo Coelho, Andreas Rosskopf, Robert Wille, Jeanette Miriam Lorenz,
- Abstract要約: CleanQRLは、多くの量子強化学習アルゴリズムの単一スクリプト実装を提供するライブラリである。
私たちのライブラリは、研究者が自身のニーズに迅速に適応できるように、明確で分かりやすいスクリプトを提供します。
- 参考スコア(独自算出の注目度): 2.536162003546062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At the interception between quantum computing and machine learning, Quantum Reinforcement Learning (QRL) has emerged as a promising research field. Due to its novelty, a standardized and comprehensive collection for QRL algorithms has not yet been established. Researchers rely on numerous software stacks for classical Reinforcement Learning (RL) as well as on various quantum computing frameworks for the implementation of the quantum subroutines of their QRL algorithms. Inspired by the CleanRL library for classical RL algorithms, we present CleanQRL, a library that offers single-script implementations of many QRL algorithms. Our library provides clear and easy to understand scripts that researchers can quickly adapt to their own needs. Alongside ray tune for distributed computing and streamlined hyperparameter tuning, CleanQRL uses weights&biases to log important metrics, which facilitates benchmarking against other classical and quantum implementations. The CleanQRL library enables researchers to easily transition from theoretical considerations to practical applications.
- Abstract(参考訳): 量子コンピューティングと機械学習のインターセプションにおいて、有望な研究分野として量子強化学習(QRL)が登場した。
その斬新さのため、QRLアルゴリズムの標準化された包括的なコレクションはまだ確立されていない。
研究者は古典的強化学習(RL)やQRLアルゴリズムの量子サブルーチン実装のための様々な量子コンピューティングフレームワークに多くのソフトウェアスタックを頼っている。
従来のRLアルゴリズム用のCleanRLライブラリにヒントを得て,多くのQRLアルゴリズムの単一スクリプト実装を提供するライブラリCleanQRLを提案する。
私たちのライブラリは、研究者が自身のニーズに迅速に適応できるように、明確で分かりやすいスクリプトを提供します。
分散コンピューティングと並列化ハイパーパラメータチューニングのためのレイチューニングに加えて、CleanQRLは重み付けとバイアスを使用して重要なメトリクスをログし、他の古典的および量子的実装に対するベンチマークを容易にする。
CleanQRLライブラリは、理論上の考慮事項から実践的な応用への容易に移行を可能にする。
関連論文リスト
- Quantum Circuit Structure Optimization for Quantum Reinforcement Learning [9.913187216180424]
強化学習により、エージェントは環境相互作用を通じて最適な政策を学ぶことができる。
量子強化学習(QRL)は、量子コンピューティングにおける重ね合わせと絡み合いを利用してこの問題に対処する。
本稿では、QRL内のPQC構造を最適化するために量子ニューラルネットワーク探索(QNAS)を統合するQRL-NASアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-01T09:16:58Z) - Benchmarking Quantum Reinforcement Learning [2.536162003546062]
量子強化学習(QRL)は、量子力学の原理を活用して強化学習(RL)アルゴリズムの性能を向上させる、有望な研究分野として登場した。
QRLが古典的なRLに対して人工的な問題定式化以上の優位性を示すかどうかはまだ不明である。
QRL研究のどのストリームが最大の可能性を示すのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2025-02-07T13:28:20Z) - Quantum Machine Learning: A Hands-on Tutorial for Machine Learning Practitioners and Researchers [51.03113410951073]
このチュートリアルでは、AIのバックグラウンドを持つ読者を量子機械学習(QML)に紹介する。
自己整合性については、基本原理、代表的QMLアルゴリズム、潜在的な応用、トレーニング容易性、一般化、計算複雑性といった重要な側面を取り上げる。
論文 参考訳(メタデータ) (2025-02-03T08:33:44Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - Asynchronous training of quantum reinforcement learning [0.8702432681310399]
変分量子回路(VQC)による量子RLエージェント構築の先導的手法
本稿では,QRLエージェントを非同期トレーニングすることで,この問題に対処する。
検討したタスクにおいて,QRLエージェントの非同期トレーニングが性能に匹敵するか,優れているかを数値シミュレーションで示す。
論文 参考訳(メタデータ) (2023-01-12T15:54:44Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - ShinRL: A Library for Evaluating RL Algorithms from Theoretical and
Practical Perspectives [11.675763847424786]
本稿では、強化学習(RL)アルゴリズムを評価するためのオープンソースのライブラリであるShinRLを紹介する。
ShinRLは、RLアルゴリズムの振る舞いを掘り下げるためのメトリクスを計算することができるRL環境インターフェースを提供する。
ShinRLのこれらの2つの特徴を組み合わせることで、深層Q学習の振る舞いをより容易に分析できることを示す。
論文 参考訳(メタデータ) (2021-12-08T05:34:46Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。