論文の概要: A Comparison of Reinforcement Learning Frameworks for Software Testing
Tasks
- arxiv url: http://arxiv.org/abs/2208.12136v1
- Date: Thu, 25 Aug 2022 14:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 14:07:13.063532
- Title: A Comparison of Reinforcement Learning Frameworks for Software Testing
Tasks
- Title(参考訳): ソフトウェアテストタスクのための強化学習フレームワークの比較
- Authors: Paulina Stevia Nouwou Mindom and Amin Nikanjam and Foutse Khomh
- Abstract要約: 強化学習(RL)は、ゲームテスト、回帰テスト、テストケース優先順位付けといった複雑なテストタスクに成功している。
本稿では,2つの重要なソフトウェアテストタスクに対して,慎重に選択されたRLアルゴリズムの適用を実証的に検討する。
- 参考スコア(独自算出の注目度): 14.22330197686511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software testing activities aim to find the possible defects of a software
product and ensure that the product meets its expected requirements. Some
software testing approached are lacking automation or are partly automated
which increases the testing time and overall software testing costs. Recently,
Reinforcement Learning (RL) has been successfully employed in complex testing
tasks such as game testing, regression testing, and test case prioritization to
automate the process and provide continuous adaptation. Practitioners can
employ RL by implementing from scratch an RL algorithm or use an RL framework.
Developers have widely used these frameworks to solve problems in various
domains including software testing. However, to the best of our knowledge,
there is no study that empirically evaluates the effectiveness and performance
of pre-implemented algorithms in RL frameworks. In this paper, we empirically
investigate the applications of carefully selected RL algorithms on two
important software testing tasks: test case prioritization in the context of
Continuous Integration (CI) and game testing. For the game testing task, we
conduct experiments on a simple game and use RL algorithms to explore the game
to detect bugs. Results show that some of the selected RL frameworks such as
Tensorforce outperform recent approaches in the literature. To prioritize test
cases, we run experiments on a CI environment where RL algorithms from
different frameworks are used to rank the test cases. Our results show that the
performance difference between pre-implemented algorithms in some cases is
considerable, motivating further investigation. Moreover, empirical evaluations
on some benchmark problems are recommended for researchers looking to select RL
frameworks, to make sure that RL algorithms perform as intended.
- Abstract(参考訳): ソフトウェアテスト活動は、ソフトウェア製品の潜在的な欠陥を見つけ、製品が期待される要件を満たしていることを保証することを目的としている。
アプローチされたいくつかのソフトウェアテストは自動化が欠如しているか、部分的に自動化されているため、テスト時間とソフトウェアテスト全体のコストが増加する。
近年,Reinforcement Learning (RL) はゲームテストや回帰テスト,テストケースの優先順位付けといった複雑なテストタスクに成功し,プロセスの自動化と継続的適応を実現している。
実践者はRLアルゴリズムをスクラッチから実装するか、あるいはRLフレームワークを使用することでRLを使用することができる。
開発者はこれらのフレームワークを使って、ソフトウェアテストを含むさまざまな領域の問題を解決する。
しかし、我々の知る限り、RLフレームワークにおける事前実装アルゴリズムの有効性と性能を実証的に評価する研究は存在しない。
本稿では,継続的インテグレーション(CI)とゲームテストという2つの重要なソフトウェアテストタスクにおいて,慎重に選択されたRLアルゴリズムの適用を実証的に検討する。
ゲームテストタスクでは,単純なゲームで実験を行い,rlアルゴリズムを用いてゲームを調査してバグを検出する。
その結果、Tensorforceのような選択されたRLフレームワークは、最近の文献のアプローチよりも優れていることがわかった。
テストケースを優先するために、さまざまなフレームワークのRLアルゴリズムを使用してテストケースをランク付けするCI環境で実験を行います。
以上の結果から,事前実装アルゴリズムの性能差は極めて大きいことを示し,さらなる調査の動機となった。
さらに、RLアルゴリズムの意図した性能を保証するため、RLフレームワークの選択を検討している研究者には、いくつかのベンチマーク問題に対する実証的な評価が推奨されている。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Reinforcement Learning for Online Testing of Autonomous Driving Systems: a Replication and Extension Study [15.949975158039452]
最近の研究では、Reinforcement Learningはディープニューラルネットワーク対応システムのオンラインテストの代替技術より優れていることが示されている。
この作品は、その経験的研究の再現と拡張である。
その結果、我々の新しいRLエージェントは、ランダムテストよりも優れた効果的なポリシーに収束できることがわかった。
論文 参考訳(メタデータ) (2024-03-20T16:39:17Z) - Improving and Benchmarking Offline Reinforcement Learning Algorithms [87.67996706673674]
この作業は、低レベルの選択とデータセットによって引き起こされるギャップを埋めることを目的としている。
3つの代表アルゴリズムを用いて20の実装選択を実証的に検討する。
CRR+とCQL+の2つの変種がD4RL上で新たな最先端を実現している。
論文 参考訳(メタデータ) (2023-06-01T17:58:46Z) - A Search-Based Testing Approach for Deep Reinforcement Learning Agents [1.1580916951856255]
本稿では、DRLエージェントのポリシーをテストするために、検索に基づく強化学習エージェント(STARLA)のテスト手法を提案する。
我々は、機械学習モデルと専用の遺伝的アルゴリズムを使用して、故障エピソードに対する探索を絞り込みます。
論文 参考訳(メタデータ) (2022-06-15T20:51:33Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - URLB: Unsupervised Reinforcement Learning Benchmark [82.36060735454647]
教師なし強化学習ベンチマーク(URLB)を紹介する。
URLBは2つのフェーズで構成されている。
評価のために3つのドメインから12の連続制御タスクを提供し、8つの主要な教師なしRLメソッドに対してオープンソースコードを提供する。
論文 参考訳(メタデータ) (2021-10-28T15:07:01Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Faults in Deep Reinforcement Learning Programs: A Taxonomy and A
Detection Approach [13.57291726431012]
深層強化学習(Deep Reinforcement Learning, DRL)は、強化学習(RL)分野における深層学習の応用である。
本稿では,DRLプログラムで発生した障害を分類する最初の試みについて述べる。
DRLプログラムのメタモデルを定義し,モデルに基づく故障検出手法であるDRLinterを開発した。
論文 参考訳(メタデータ) (2021-01-01T01:49:03Z) - Auto-Agent-Distiller: Towards Efficient Deep Reinforcement Learning
Agents via Neural Architecture Search [14.292072505007974]
本稿では,様々なタスクに対して最適なDRLエージェントを自動検索するAuto-Agent-Distiller (A2D) フレームワークを提案する。
我々は,バニラNASがDRLトレーニング安定性のばらつきが大きいため,最適なエージェントの探索に容易に失敗できることを実証した。
そこで我々は,教師エージェントのアクターと評論家の両方から知識を抽出し,探索プロセスを安定化し,探索エージェントの最適性を向上する新しい蒸留機構を開発する。
論文 参考訳(メタデータ) (2020-12-24T04:07:36Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。