論文の概要: A Survey of Reinforcement Learning for Software Engineering
- arxiv url: http://arxiv.org/abs/2507.12483v1
- Date: Mon, 14 Jul 2025 14:28:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.198025
- Title: A Survey of Reinforcement Learning for Software Engineering
- Title(参考訳): ソフトウェア工学の強化学習に関する調査
- Authors: Dong Wang, Hanmo You, Lingwei Zhu, Kaiwei Lin, Zheng Chen, Chen Yang, Junji Yu, Zan Wang, Junjie Chen,
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、シーケンシャルな意思決定のための強力なパラダイムとして登場した。
2015年にDeep Reinforcement Learning (DRL)が導入されて以降、22のプレミアソフトウェアエンジニアリング会場で115のピアレビュー研究をレビューした。
オープンな課題を特定し、この発展途上の領域で進行中の作業のガイドとインスピレーションを行うための今後の研究指針を提案しました。
- 参考スコア(独自算出の注目度): 14.709084727619121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) has emerged as a powerful paradigm for sequential decision-making and has attracted growing interest across various domains, particularly following the advent of Deep Reinforcement Learning (DRL) in 2015. Simultaneously, the rapid advancement of Large Language Models (LLMs) has further fueled interest in integrating RL with LLMs to enable more adaptive and intelligent systems. In the field of software engineering (SE), the increasing complexity of systems and the rising demand for automation have motivated researchers to apply RL to a broad range of tasks, from software design and development to quality assurance and maintenance. Despite growing research in RL-for-SE, there remains a lack of a comprehensive and systematic survey of this evolving field. To address this gap, we reviewed 115 peer-reviewed studies published across 22 premier SE venues since the introduction of DRL. We conducted a comprehensive analysis of publication trends, categorized SE topics and RL algorithms, and examined key factors such as dataset usage, model design and optimization, and evaluation practices. Furthermore, we identified open challenges and proposed future research directions to guide and inspire ongoing work in this evolving area. To summarize, this survey offers the first systematic mapping of RL applications in software engineering, aiming to support both researchers and practitioners in navigating the current landscape and advancing the field. Our artifacts are publicly available: https://github.com/KaiWei-Lin-lanina/RL4SE.
- Abstract(参考訳): 強化学習(Reinforcement Learning、RL)は、シーケンシャルな意思決定の強力なパラダイムとして現れ、特に2015年のDeep Reinforcement Learning(DRL)の出現以降、様々な領域で関心が高まりつつある。
同時に、LLM(Large Language Models)の急速な進歩は、より適応的でインテリジェントなシステムを実現するために、LLとLLMを統合することへの関心をさらに高めた。
ソフトウェアエンジニアリング(SE)の分野では、システムの複雑さの増大と自動化の需要の増大により、ソフトウェア設計や開発から品質保証、メンテナンスに至るまで、研究者がRLを幅広いタスクに適用する動機となった。
RL-for-SEの研究が増えているにもかかわらず、この進化分野に関する包括的かつ体系的な調査はいまだに残っていない。
このギャップに対処するため、DRL導入以降、22のプレミアSE会場で出版された115のピアレビュー研究をレビューした。
我々は,出版トレンドの包括的分析を行い,SEトピックスとRLアルゴリズムを分類し,データセットの使用状況,モデル設計と最適化,評価プラクティスなどの重要な要因について検討した。
さらに、オープンな課題を特定し、この発展途上の領域で進行中の作業のガイドとインスピレーションを行うための今後の研究指針を提案しました。
要約すると、この調査は、ソフトウェア工学におけるRLアプリケーションの最初の体系的なマッピングを提供し、現在の風景をナビゲートし、分野を前進させる研究者と実践者の両方を支援することを目的としている。
私たちのアーティファクトは公開されています。 https://github.com/KaiWei-Lin-lanina/RL4SE。
関連論文リスト
- Inverse Reinforcement Learning Meets Large Language Model Post-Training: Basics, Advances, and Opportunities [62.05713042908654]
本稿では,逆強化学習(IRL)のレンズによる大規模言語モデル(LLM)のアライメントの進歩について概観する。
我々は、人間のデータからニューラル報酬モデルを構築する必要性を強調し、このパラダイムシフトの形式的および実践的意味について議論する。
論文 参考訳(メタデータ) (2025-07-17T14:22:24Z) - A Survey of Reinforcement Learning for Optimization in Automation [0.0]
この記事では、自動化におけるRLの現在の状況について考察し、製造業、エネルギーシステム、ロボット工学におけるその役割に注目します。
最先端の手法、主要な課題、そして各セクターにおける今後の研究の道程について論じ、複雑な最適化課題を解決するためのRLの能力を強調している。
論文 参考訳(メタデータ) (2025-02-13T15:40:39Z) - Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - Pretraining in Deep Reinforcement Learning: A Survey [17.38360092869849]
事前訓練は伝達可能な知識の獲得に有効であることが示されている。
強化学習の性質から, この分野でのプレトレーニングには, 独特な課題が伴う。
論文 参考訳(メタデータ) (2022-11-08T02:17:54Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。