論文の概要: PlatoLTL: Learning to Generalize Across Symbols in LTL Instructions for Multi-Task RL
- arxiv url: http://arxiv.org/abs/2601.22891v1
- Date: Fri, 30 Jan 2026 12:11:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.428079
- Title: PlatoLTL: Learning to Generalize Across Symbols in LTL Instructions for Multi-Task RL
- Title(参考訳): PlatoLTL:マルチタスクRLのためのLTL命令におけるシンボル間の一般化学習
- Authors: Jacques Cloete, Mathias Jackermeier, Ioannis Havoutis, Alessandro Abate,
- Abstract要約: 線形時間論理(LTL)は、構造的、時間的に拡張されたタスクをRLエージェントに指定するための強力な形式である。
ここでは, ゼロショットのポリシーを公式構造にまたがるだけでなく, 命題にまたがってパラメトリックに一般化できる新しいアプローチであるPlatoLTLを提案する。
- 参考スコア(独自算出の注目度): 55.58188508467081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central challenge in multi-task reinforcement learning (RL) is to train generalist policies capable of performing tasks not seen during training. To facilitate such generalization, linear temporal logic (LTL) has recently emerged as a powerful formalism for specifying structured, temporally extended tasks to RL agents. While existing approaches to LTL-guided multi-task RL demonstrate successful generalization across LTL specifications, they are unable to generalize to unseen vocabularies of propositions (or "symbols"), which describe high-level events in LTL. We present PlatoLTL, a novel approach that enables policies to zero-shot generalize not only compositionally across LTL formula structures, but also parametrically across propositions. We achieve this by treating propositions as instances of parameterized predicates rather than discrete symbols, allowing policies to learn shared structure across related propositions. We propose a novel architecture that embeds and composes predicates to represent LTL specifications, and demonstrate successful zero-shot generalization to novel propositions and tasks across challenging environments.
- Abstract(参考訳): マルチタスク強化学習(RL)における中心的な課題は、訓練中に見えないタスクを実行することのできるジェネラリストの政策を訓練することである。
このような一般化を容易にするために、線形時間論理(LTL)は、最近RLエージェントに時間的に拡張された構造化タスクを指定するための強力な形式主義として登場した。
LTL 誘導マルチタスク RL への既存のアプローチは LTL 仕様全体の一般化を成功させるが、LTL の高レベル事象を記述した命題の語彙(あるいは「シンボル」)を一般化することはできない。
そこで本論文では,LTL の公式構造だけでなく,命題をパラメトリックに構成する上で,ゼロショットのポリシーを一般化する新しいアプローチである PlatoLTL を提案する。
我々は、命題を離散的なシンボルではなくパラメータ化された述語の例として扱い、ポリシーが関連する命題間で共有構造を学習できるようにする。
本稿では,LTL仕様の表現に述語を埋め込んで構成する新しいアーキテクチャを提案し,課題のある環境にまたがる新しい提案やタスクへのゼロショットの一般化を実証する。
関連論文リスト
- Zero-Shot Instruction Following in RL via Structured LTL Representations [54.08661695738909]
リニア時間論理(LTL)は、強化学習(RL)エージェントのための複雑で構造化されたタスクを特定するための魅力的なフレームワークである。
近年の研究では、命令を有限オートマトンとして解釈し、タスク進捗を監視する高レベルプログラムと見なすことができ、テスト時に任意の命令を実行することのできる1つのジェネラリストポリシーを学習できることが示されている。
本稿では,この欠点に対処する任意の命令に従うために,マルチタスクポリシーを学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-02T10:44:51Z) - One Subgoal at a Time: Zero-Shot Generalization to Arbitrary Linear Temporal Logic Requirements in Multi-Task Reinforcement Learning [4.819678320271634]
複雑で時間的に拡張されたタスク目標と安全制約への一般化は、強化学習(RL)における重要な課題である。
本稿では,任意の仕様に対してゼロショットの一般化を可能にするGenZ-LTLを提案する。
論文 参考訳(メタデータ) (2025-08-03T03:17:49Z) - The Synergy of LLMs & RL Unlocks Offline Learning of Generalizable Language-Conditioned Policies with Low-fidelity Data [50.544186914115045]
TEDUOは、シンボリック環境におけるオフライン言語条件のポリシー学習のための、新しいトレーニングパイプラインである。
まず、オフラインデータセットをよりリッチなアノテーションで拡張する自動化ツールとして、次に、一般化可能な命令フォローエージェントとして使用します。
論文 参考訳(メタデータ) (2024-12-09T18:43:56Z) - DeepLTL: Learning to Efficiently Satisfy Complex LTL Specifications for Multi-Task RL [59.01527054553122]
線形時間論理(LTL)は、最近、複雑で時間的に拡張されたタスクを特定するための強力なフォーマリズムとして採用されている。
既存のアプローチにはいくつかの欠点がある。
これらの問題に対処するための新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T21:30:38Z) - TEGEE: Task dEfinition Guided Expert Ensembling for Generalizable and Few-shot Learning [37.09785060896196]
タスク定義を明示的に抽出する textbfTEGEE (Task Definition Guided Expert Ensembling) を提案する。
私たちのフレームワークは2つの3Bモデルアプローチを採用しています。
実験により, TEGEEはより大きなLLaMA2-13Bモデルと相容れない性能を示した。
論文 参考訳(メタデータ) (2024-03-07T05:26:41Z) - LTL2Action: Generalizing LTL Instructions for Multi-Task RL [4.245018630914216]
我々は,マルチタスク環境における指示に従うために,深層強化学習(RL)エージェントを指導する問題に対処する。
我々は、ドメイン固有の語彙を用いて命令を指定するために、よく知られた形式言語(線形時間論理(LTL))を用いる。
論文 参考訳(メタデータ) (2021-02-13T04:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。