論文の概要: Guessing Winning Policies in LTL Synthesis by Semantic Learning
- arxiv url: http://arxiv.org/abs/2305.15109v1
- Date: Wed, 24 May 2023 12:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:46:33.652169
- Title: Guessing Winning Policies in LTL Synthesis by Semantic Learning
- Title(参考訳): セマンティック学習によるLTL合成における勝利政策
- Authors: Jan Kretinsky, Tobias Meggendorfer, Maximilian Prokop, Sabine Rieder
- Abstract要約: 合成問題から派生したパリティゲームにおいて,勝利戦略を推測する学習に基づく手法を提案する。
ゲームの大きさが厳密なアプローチを禁止している場合に、予想される戦略を最善策として適用できるだけでなく、厳密な合成のスケーラビリティをいくつかの方法で向上させることもできる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide a learning-based technique for guessing a winning strategy in a
parity game originating from an LTL synthesis problem. A cheaply obtained guess
can be useful in several applications. Not only can the guessed strategy be
applied as best-effort in cases where the game's huge size prohibits rigorous
approaches, but it can also increase the scalability of rigorous LTL synthesis
in several ways. Firstly, checking whether a guessed strategy is winning is
easier than constructing one. Secondly, even if the guess is wrong in some
places, it can be fixed by strategy iteration faster than constructing one from
scratch. Thirdly, the guess can be used in on-the-fly approaches to prioritize
exploration in the most fruitful directions.
In contrast to previous works, we (i)~reflect the highly structured logical
information in game's states, the so-called semantic labelling, coming from the
recent LTL-to-automata translations, and (ii)~learn to reflect it properly by
learning from previously solved games, bringing the solving process closer to
human-like reasoning.
- Abstract(参考訳): LTL合成問題から派生したパリティゲームにおいて,勝利戦略を推測する学習的手法を提案する。
安価に得られる推測は、いくつかの応用で有用である。
ゲームの大きさが厳密なアプローチを禁止している場合に、予想される戦略を最善策として適用できるだけでなく、厳密なLTL合成のスケーラビリティをいくつかの方法で向上させることもできる。
まず、予測された戦略が勝っているかどうかを確認することは、構築するよりも容易である。
第二に、もし推測が間違っていたとしても、戦略イテレーションによってスクラッチから構築するよりも早く修正することができる。
第3に、この推測は、最も実りある方向の探査を優先するために、オンザフライアプローチで使用できる。
以前の作品とは対照的に
(i)~ゲーム状態における高度に構造化された論理情報、いわゆるセマンティックラベリング(最近のLTL-to-automata翻訳)、および
(ii) 事前に解決されたゲームから学習することで、それを適切に反映させることにより、解決プロセスを人間的な推論に近づける。
関連論文リスト
- LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - On Optimal Strategies for Wordle and General Guessing Games [6.85316573653194]
我々は,徹底的な探索を回避しながら,ゲーム推定のための最適な戦略を見つける方法を開発した。
この研究は任意の推測ゲームに適用するために開発されていますが、具体的な結果を示す例としてWordleを使用します。
論文 参考訳(メタデータ) (2023-05-16T02:30:10Z) - Generalised agent for solving higher board states of tic tac toe using
Reinforcement Learning [0.0]
本研究の目的は, 短時間で正確な移動を行うため, 高位板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板状板
そのアイデアは、よく考えられた学習問題として、ティック・タック・トイ・ゲーム(tic tac toe game)を取り入れることだ。
研究とその成果は有望であり、トレーニングの各エポックに比例して高い勝利を与える。
論文 参考訳(メタデータ) (2022-12-23T10:58:27Z) - Near-Optimal No-Regret Learning for General Convex Games [121.50979258049135]
一般凸およびコンパクト戦略集合に対して後悔が得られることを示す。
我々の力学は、適度にエンハンリフトされた空間上の楽観的な従順化バウンドのインスタンス化にある。
先行結果が適用される特殊な場合であっても、我々のアルゴリズムは最先端の後悔よりも改善される。
論文 参考訳(メタデータ) (2022-06-17T12:58:58Z) - Strategizing against Learners in Bayesian Games [74.46970859427907]
プレイヤーの1人である学習者が無学習の学習戦略を採用する2人プレイヤゲームについて検討した。
一般のベイズゲームでは,学習者と学習者の双方の報酬の支払いが,そのタイプに依存する可能性がある。
論文 参考訳(メタデータ) (2022-05-17T18:10:25Z) - The best of both worlds: stochastic and adversarial episodic MDPs with
unknown transition [49.78053380710322]
我々は,エピソードT$でマルコフ決定過程を学習する上で,両世界の最良の問題を考える。
最近の[Jin and Luo, 2020]による研究は、固定遷移が分かっているときにこの目標を達成する。
本研究では,同じFollow-the-Regularized-Leader(textFTRL$)フレームワークを新しいテクニックのセットと組み合わせることで,この問題を解決する。
論文 参考訳(メタデータ) (2021-06-08T05:46:35Z) - First-Order Problem Solving through Neural MCTS based Reinforcement
Learning [0.0]
多くの問題は解釈されたFOL文を使って記述することができ、セマンティックゲームにマッピングすることができる。
本稿では,問題のfol記述を意味ゲームにマップする汎用フレームワークであるpersephoneを提案する。
Persephone の目標は,FOL に記述された問題を人間の介入なしに解にマッピングすることである。
論文 参考訳(メタデータ) (2021-01-11T19:54:06Z) - Complexity and Algorithms for Exploiting Quantal Opponents in Large
Two-Player Games [16.43565579998679]
伝統的なゲーム理論の解の概念は、完全に合理的なプレイヤーを前提としており、従って、従属的な相手を活用できる能力は限られている。
本稿では,通常のゲームや広角ゲームにおいて,量子的対戦相手に対する効果的で堅牢な戦略を計算するためのスケーラブルなアルゴリズムを解析し,提案することを目的とする。
論文 参考訳(メタデータ) (2020-09-30T09:14:56Z) - Follow the Perturbed Leader: Optimism and Fast Parallel Algorithms for
Smooth Minimax Games [33.9383996530254]
オンライン学習の問題点とそのミニマックスゲームへの応用について考察する。
オンライン学習の問題に対して、Follow Perturbed Leaderは、最も優れたレスポンスを計算する、広く摂動されたオラクル設定である。
論文 参考訳(メタデータ) (2020-06-13T02:55:41Z) - Optimally Deceiving a Learning Leader in Stackelberg Games [123.14187606686006]
MLコミュニティの最近の結果は、リーダーがStackelbergゲームでコミットする最適な戦略を計算するために使用される学習アルゴリズムが、フォロワーによる操作に影響を受けやすいことを明らかにしている。
本稿は、リーダーとフォロワー間の学習相互作用に関する様々なシナリオにおいて、フォロワーが(最適に近い)ペイオフを計算することは、常に可能であることを示す。
論文 参考訳(メタデータ) (2020-06-11T16:18:21Z) - Excursion Search for Constrained Bayesian Optimization under a Limited
Budget of Failures [62.41541049302712]
本稿では,所定の予算の失敗の関数として探索において許容されるリスクの量を制御する制御理論に基づく新しい意思決定者を提案する。
本アルゴリズムは, 種々の最適化実験において, 故障予算をより効率的に利用し, 一般に, 最先端の手法よりも, 後悔度を低くする。
論文 参考訳(メタデータ) (2020-05-15T09:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。