論文の概要: Online Test Synthesis From Requirements: Enhancing Reinforcement Learning with Game Theory
- arxiv url: http://arxiv.org/abs/2407.18994v1
- Date: Fri, 26 Jul 2024 07:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 20:12:16.027020
- Title: Online Test Synthesis From Requirements: Enhancing Reinforcement Learning with Game Theory
- Title(参考訳): 要件からのオンラインテスト合成:ゲーム理論による強化学習の強化
- Authors: Ocan Sankur, Thierry Jéron, Nicolas Markey, David Mentré, Reiya Noguchi,
- Abstract要約: リアクティブ実装の自動化として指定された機能要件からブラックボックステストケースの自動オンライン合成を検討する。
提案手法はモンテカルロ木探索(モンテカルロ木探索)を応用し,予測入力を効率的に選択するための強化学習の古典的手法である。
- 参考スコア(独自算出の注目度): 1.363146160329157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the automatic online synthesis of black-box test cases from functional requirements specified as automata for reactive implementations. The goal of the tester is to reach some given state, so as to satisfy a coverage criterion, while monitoring the violation of the requirements. We develop an approach based on Monte Carlo Tree Search, which is a classical technique in reinforcement learning for efficiently selecting promising inputs. Seeing the automata requirements as a game between the implementation and the tester, we develop a heuristic by biasing the search towards inputs that are promising in this game. We experimentally show that our heuristic accelerates the convergence of the Monte Carlo Tree Search algorithm, thus improving the performance of testing.
- Abstract(参考訳): リアクティブ実装の自動化として指定された機能要件からブラックボックステストケースの自動オンライン合成を検討する。
テスタの目標は、要件の違反を監視しながら、カバレッジ基準を満たすために、特定の状態に到達することである。
提案手法はモンテカルロ木探索(モンテカルロ木探索)を応用し,予測入力を効率的に選択するための強化学習の古典的手法である。
実装とテスタの間のゲームとしてオートマチックな要件を見れば,このゲームで期待できる入力に対する探索をバイアスすることで,ヒューリスティックな手法が開発される。
実験により,モンテカルロ木探索アルゴリズムの収束が促進され,テスト性能が向上することが確認された。
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Reinforcement Learning and Data-Generation for Syntax-Guided Synthesis [0.0]
我々はモンテカルロ木探索(MCTS)を用いて候補解の空間を探索するSyGuSの強化学習アルゴリズムを提案する。
我々のアルゴリズムは,木に縛られた高信頼度と組み合わさって,探索と利用のバランスをとるためのポリシーと価値関数を学習する。
論文 参考訳(メタデータ) (2023-07-13T11:30:50Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - Dyna-T: Dyna-Q and Upper Confidence Bounds Applied to Trees [0.9137554315375919]
本稿ではDyna-Tという新しいアルゴリズムについて予備検討する。
強化学習(RL)では、計画エージェントは環境をモデルとして表現する。
より良いモデルを学ぶために、あるいは価値関数とポリシーを直接改善するために、経験を使うことができる。
論文 参考訳(メタデータ) (2022-01-12T15:06:30Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Monte Carlo Tree Search for a single target search game on a 2-D lattice [0.0]
このプロジェクトは、AIプレイヤーが2次元格子内で静止目標を探索するゲームを想像する。
動物捕食行動のモデルであるレヴィ飛行探索(Levi Flight Search)と比較した。
論文 参考訳(メタデータ) (2020-11-29T01:07:45Z) - An Efficient Model Inference Algorithm for Learning-based Testing of
Reactive Systems [0.0]
学習ベースのテスト(LBT)は、ソフトウェアシステムの反復的なブラックボックス要求テストを自動化する新しい方法論である。
決定論的クリプキ構造のためのアクティブインクリメンタル学習アルゴリズムであるIKL学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-08-14T09:48:58Z) - On Effective Parallelization of Monte Carlo Tree Search [51.15940034629022]
モンテカルロ木探索(MCTS)は、探索木を構築するためにかなりの数のロールアウトを必要とするため、計算コストがかかる。
効果的な並列MCTSアルゴリズムを設計する方法は、体系的に研究されておらず、まだよく分かっていない。
我々は,より効率的な並列MCTSアルゴリズムの設計に,提案する必要条件をどのように適用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-15T21:36:00Z) - Single-Agent Optimization Through Policy Iteration Using Monte-Carlo
Tree Search [8.22379888383833]
モンテカルロ・ツリー・サーチ(MCTS)と深部強化学習の組み合わせは,2プレイヤー完全情報ゲームにおける最先端の手法である。
本稿では,MCTS の変種を利用した探索アルゴリズムについて述べる。1) 潜在的に有界な報酬を持つゲームに対する新たなアクション値正規化機構,2) 効果的な探索並列化を可能にする仮想損失関数の定義,3) 世代ごとのセルフプレイによって訓練されたポリシーネットワークについて述べる。
論文 参考訳(メタデータ) (2020-05-22T18:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。