論文の概要: Semantically Labelled Automata for Multi-Task Reinforcement Learning with LTL Instructions
- arxiv url: http://arxiv.org/abs/2602.06746v1
- Date: Fri, 06 Feb 2026 14:46:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.429466
- Title: Semantically Labelled Automata for Multi-Task Reinforcement Learning with LTL Instructions
- Title(参考訳): LTL命令を用いたマルチタスク強化学習のための意味的ラベリングオートマタ
- Authors: Alessandro Abate, Giuseppe De Giacomo, Mathias Jackermeier, Jan Kretínský, Maximilian Prokop, Christoph Weinhuber,
- Abstract要約: エージェントが単一のユニバーサルポリシーを学習する環境であるマルチタスク強化学習(RL)について検討する。
本稿では,新世代の意味翻訳を利用したタスク埋め込み手法を提案する。
- 参考スコア(独自算出の注目度): 61.479946958462754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study multi-task reinforcement learning (RL), a setting in which an agent learns a single, universal policy capable of generalising to arbitrary, possibly unseen tasks. We consider tasks specified as linear temporal logic (LTL) formulae, which are commonly used in formal methods to specify properties of systems, and have recently been successfully adopted in RL. In this setting, we present a novel task embedding technique leveraging a new generation of semantic LTL-to-automata translations, originally developed for temporal synthesis. The resulting semantically labelled automata contain rich, structured information in each state that allow us to (i) compute the automaton efficiently on-the-fly, (ii) extract expressive task embeddings used to condition the policy, and (iii) naturally support full LTL. Experimental results in a variety of domains demonstrate that our approach achieves state-of-the-art performance and is able to scale to complex specifications where existing methods fail.
- Abstract(参考訳): マルチタスク強化学習(RL)は,エージェントが任意の,あるいは見えないタスクに一般化可能な,単一の普遍的なポリシを学習する環境である。
本稿では,線形時間論理(LTL)式として指定されたタスクについて考察する。
そこで本研究では,時間的合成のために開発されたセマンティックLTL-to-automata翻訳の新たな世代を活用した新しいタスク埋め込み手法を提案する。
その結果、意味的にラベル付けされたオートマトンは、豊かで構造化された情報を各状態に含みます。
i) オートマトンをオンザフライで効率的に計算する。
二 ポリシーの定めに使用する表現的タスク埋め込みを抽出し、
(iii) 完全なTLLを自然にサポートする。
様々な領域における実験結果から,本手法は最先端の性能を実現し,既存手法が失敗する複雑な仕様まで拡張可能であることが示された。
関連論文リスト
- PlatoLTL: Learning to Generalize Across Symbols in LTL Instructions for Multi-Task RL [55.58188508467081]
線形時間論理(LTL)は、構造的、時間的に拡張されたタスクをRLエージェントに指定するための強力な形式である。
ここでは, ゼロショットのポリシーを公式構造にまたがるだけでなく, 命題にまたがってパラメトリックに一般化できる新しいアプローチであるPlatoLTLを提案する。
論文 参考訳(メタデータ) (2026-01-30T12:11:55Z) - Zero-Shot Instruction Following in RL via Structured LTL Representations [54.08661695738909]
リニア時間論理(LTL)は、強化学習(RL)エージェントのための複雑で構造化されたタスクを特定するための魅力的なフレームワークである。
近年の研究では、命令を有限オートマトンとして解釈し、タスク進捗を監視する高レベルプログラムと見なすことができ、テスト時に任意の命令を実行することのできる1つのジェネラリストポリシーを学習できることが示されている。
本稿では,この欠点に対処する任意の命令に従うために,マルチタスクポリシーを学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-02T10:44:51Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Inverse Reinforcement Learning of Autonomous Behaviors Encoded as
Weighted Finite Automata [18.972270182221262]
本稿では,論理タスク仕様とコスト関数を実演から学習する手法を提案する。
本稿では,タスクの未知論理構造を近似した重み付き有限オートマトン(WFA)の抽出にスペクトル学習手法を用いる。
高レベルタスクガイダンスのためのWFAと低レベル制御のためのラベル付きマルコフ決定プロセス(L-MDP)との間にある製品を定義し、実証者の行動にマッチするコスト関数を最適化する。
論文 参考訳(メタデータ) (2021-03-10T06:42:10Z) - LTL2Action: Generalizing LTL Instructions for Multi-Task RL [4.245018630914216]
我々は,マルチタスク環境における指示に従うために,深層強化学習(RL)エージェントを指導する問題に対処する。
我々は、ドメイン固有の語彙を用いて命令を指定するために、よく知られた形式言語(線形時間論理(LTL))を用いる。
論文 参考訳(メタデータ) (2021-02-13T04:05:46Z) - Learning Optimal Strategies for Temporal Tasks in Stochastic Games [23.012106429532633]
本稿では,モデルフリー強化学習(RL)アプローチを導入し,与えられた仕様からコントローラを導出する。
我々は,最悪の環境行動に対する仕様を満たす確率を最大化する最適制御戦略を学習する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Certified Reinforcement Learning with Logic Guidance [78.2286146954051]
線形時間論理(LTL)を用いて未知の連続状態/動作マルコフ決定過程(MDP)のゴールを定式化できるモデルフリーなRLアルゴリズムを提案する。
このアルゴリズムは、トレースが仕様を最大確率で満たす制御ポリシーを合成することが保証される。
論文 参考訳(メタデータ) (2019-02-02T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。