論文の概要: Online Test Synthesis From Requirements: Enhancing Reinforcement Learning with Game Theory
- arxiv url: http://arxiv.org/abs/2407.18994v1
- Date: Fri, 26 Jul 2024 07:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 20:12:16.027020
- Title: Online Test Synthesis From Requirements: Enhancing Reinforcement Learning with Game Theory
- Title(参考訳): 要件からのオンラインテスト合成:ゲーム理論による強化学習の強化
- Authors: Ocan Sankur, Thierry Jéron, Nicolas Markey, David Mentré, Reiya Noguchi,
- Abstract要約: リアクティブ実装の自動化として指定された機能要件からブラックボックステストケースの自動オンライン合成を検討する。
提案手法はモンテカルロ木探索(モンテカルロ木探索)を応用し,予測入力を効率的に選択するための強化学習の古典的手法である。
- 参考スコア(独自算出の注目度): 1.363146160329157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the automatic online synthesis of black-box test cases from functional requirements specified as automata for reactive implementations. The goal of the tester is to reach some given state, so as to satisfy a coverage criterion, while monitoring the violation of the requirements. We develop an approach based on Monte Carlo Tree Search, which is a classical technique in reinforcement learning for efficiently selecting promising inputs. Seeing the automata requirements as a game between the implementation and the tester, we develop a heuristic by biasing the search towards inputs that are promising in this game. We experimentally show that our heuristic accelerates the convergence of the Monte Carlo Tree Search algorithm, thus improving the performance of testing.
- Abstract(参考訳): リアクティブ実装の自動化として指定された機能要件からブラックボックステストケースの自動オンライン合成を検討する。
テスタの目標は、要件の違反を監視しながら、カバレッジ基準を満たすために、特定の状態に到達することである。
提案手法はモンテカルロ木探索(モンテカルロ木探索)を応用し,予測入力を効率的に選択するための強化学習の古典的手法である。
実装とテスタの間のゲームとしてオートマチックな要件を見れば,このゲームで期待できる入力に対する探索をバイアスすることで,ヒューリスティックな手法が開発される。
実験により,モンテカルロ木探索アルゴリズムの収束が促進され,テスト性能が向上することが確認された。
関連論文リスト
- I-MCTS: Enhancing Agentic AutoML via Introspective Monte Carlo Tree Search [10.718560472954644]
イントロスペクティブモンテカルロ木探索(Introspective Monte Carlo Tree Search, I-MCTS)は、イントロスペクティブプロセスを通じてツリーノードを反復的に拡張する新しいアプローチである。
これにより、探索ツリー内のノードの継続的な改善が容易になり、全体的な意思決定プロセスが強化される。
LLM推定スコアから実際のパフォーマンススコアへQ値をシームレスに遷移させるハイブリッド報酬機構を実装した。
論文 参考訳(メタデータ) (2025-02-20T16:19:09Z) - Automated Test-Case Generation for REST APIs Using Model Inference Search Heuristic [15.625240669567479]
EvoMasterは進化的アルゴリズム(EA)を使用して、REST APIのテストケースを自動的に生成するツールである。
本稿では、リアルタイム自動学習を用いて自動テストケース生成プロセスのガイドを行う新しい検索(MISH)を提案する。
MISHはシステム全体の振る舞いの表現を学び、推論される経路に基づいてテストケースの適合度を定義する。
論文 参考訳(メタデータ) (2024-12-04T16:00:14Z) - Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Reinforcement Learning and Data-Generation for Syntax-Guided Synthesis [0.0]
我々はモンテカルロ木探索(MCTS)を用いて候補解の空間を探索するSyGuSの強化学習アルゴリズムを提案する。
我々のアルゴリズムは,木に縛られた高信頼度と組み合わさって,探索と利用のバランスをとるためのポリシーと価値関数を学習する。
論文 参考訳(メタデータ) (2023-07-13T11:30:50Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Monte Carlo Tree Search for a single target search game on a 2-D lattice [0.0]
このプロジェクトは、AIプレイヤーが2次元格子内で静止目標を探索するゲームを想像する。
動物捕食行動のモデルであるレヴィ飛行探索(Levi Flight Search)と比較した。
論文 参考訳(メタデータ) (2020-11-29T01:07:45Z) - An Efficient Model Inference Algorithm for Learning-based Testing of
Reactive Systems [0.0]
学習ベースのテスト(LBT)は、ソフトウェアシステムの反復的なブラックボックス要求テストを自動化する新しい方法論である。
決定論的クリプキ構造のためのアクティブインクリメンタル学習アルゴリズムであるIKL学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-08-14T09:48:58Z) - On Effective Parallelization of Monte Carlo Tree Search [51.15940034629022]
モンテカルロ木探索(MCTS)は、探索木を構築するためにかなりの数のロールアウトを必要とするため、計算コストがかかる。
効果的な並列MCTSアルゴリズムを設計する方法は、体系的に研究されておらず、まだよく分かっていない。
我々は,より効率的な並列MCTSアルゴリズムの設計に,提案する必要条件をどのように適用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-15T21:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。