論文の概要: Graph Contextual Reinforcement Learning for Efficient Directed Controller Synthesis
- arxiv url: http://arxiv.org/abs/2512.15295v1
- Date: Wed, 17 Dec 2025 10:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.940437
- Title: Graph Contextual Reinforcement Learning for Efficient Directed Controller Synthesis
- Title(参考訳): 効率的な指向性制御器合成のためのグラフ文脈強化学習
- Authors: Toshihide Ubukata, Enhong Mu, Takuto Yamauchi, Mingyue Zhang, Jialong Li, Kenji Tei,
- Abstract要約: 本稿では、グラフニューラルネットワーク(GNN)を統合することにより、RLに基づく手法を強化するGCRLを紹介する。
GCRLはLTS探索の歴史をグラフ構造にエンコードし、より広範で非電流ベースのコンテキストをキャプチャする。
最先端手法の比較実験では、5つのベンチマーク領域のうち4つの領域で学習効率と一般化が優れていた。
- 参考スコア(独自算出の注目度): 3.322463906518065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controller synthesis is a formal method approach for automatically generating Labeled Transition System (LTS) controllers that satisfy specified properties. The efficiency of the synthesis process, however, is critically dependent on exploration policies. These policies often rely on fixed rules or strategies learned through reinforcement learning (RL) that consider only a limited set of current features. To address this limitation, this paper introduces GCRL, an approach that enhances RL-based methods by integrating Graph Neural Networks (GNNs). GCRL encodes the history of LTS exploration into a graph structure, allowing it to capture a broader, non-current-based context. In a comparative experiment against state-of-the-art methods, GCRL exhibited superior learning efficiency and generalization across four out of five benchmark domains, except one particular domain characterized by high symmetry and strictly local interactions.
- Abstract(参考訳): コントローラ合成は、指定された特性を満たすラベル付き遷移系(LTS)コントローラを自動生成するための形式的な手法である。
しかし, 合成プロセスの効率は, 探索政策に大きく依存している。
これらの方針は、しばしば、現在の特徴の限られたセットだけを考慮する強化学習(RL)を通じて学んだ一定の規則や戦略に依存します。
この制限に対処するために,グラフニューラルネットワーク(GNN)を統合することにより,RLに基づく手法を強化するGCRLを提案する。
GCRLはLTS探索の歴史をグラフ構造にエンコードし、より広範で非電流ベースのコンテキストをキャプチャする。
最先端手法との比較実験において、GCRLは高対称性と厳密な局所的相互作用を特徴とする1つの特定の領域を除いて、5つのベンチマーク領域のうち4つの領域で優れた学習効率と一般化を示した。
関連論文リスト
- Control Synthesis of Cyber-Physical Systems for Real-Time Specifications through Causation-Guided Reinforcement Learning [3.608670495432032]
信号時相論理(STL)は、リアルタイム制約を表現する強力な形式主義として登場した。
強化学習(RL)は未知環境における制御合成問題の解法として重要である。
本稿では,STLのオンライン因果監視によって導かれるオンライン報酬生成手法を提案する。
論文 参考訳(メタデータ) (2025-10-09T02:49:28Z) - Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - Part I: Tricks or Traps? A Deep Dive into RL for LLM Reasoning [53.85659415230589]
本稿では,広く採用されている強化学習手法を体系的にレビューする。
特定の設定に合わせてRLテクニックを選択するための明確なガイドラインを示す。
また、2つのテクニックを最小限に組み合わせることで、批判のないポリシーの学習能力を解き放つことも明らかにした。
論文 参考訳(メタデータ) (2025-08-11T17:39:45Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Diffusion Guidance Is a Controllable Policy Improvement Operator [98.11511661904618]
CFGRLは教師付き学習の単純さで訓練されているが、データ内のポリシーをさらに改善することができる。
オフラインのRLタスクでは、信頼性の高いトレンドが観察されます -- ガイダンスの重み付けの増加によって、パフォーマンスが向上します。
論文 参考訳(メタデータ) (2025-05-29T14:06:50Z) - Invariant Control Strategies for Active Flow Control using Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)を,強化学習(RL)に基づくフロー制御のための有望なアーキテクチャとして導入する。
GNNは非構造三次元フローデータを処理し、カルト格子の制約なしに空間的関係を保存する。
我々は,GNNに基づく制御ポリシが,改良された一般化特性の恩恵を受けながら,既存の手法に匹敵する性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-28T09:33:40Z) - Advanced deep-reinforcement-learning methods for flow control: group-invariant and positional-encoding networks improve learning speed and quality [0.7421845364041001]
本研究は,流路制御のための深部強化学習法(DRL)の進歩である。
グループ不変ネットワークと位置エンコーディングをDRLアーキテクチャに統合することに注力する。
提案手法はRayleigh-B'enard対流のケーススタディを用いて検証した。
論文 参考訳(メタデータ) (2024-07-25T07:24:41Z) - Exploration Policies for On-the-Fly Controller Synthesis: A
Reinforcement Learning Approach [0.0]
強化学習(RL)に基づく非有界学習のための新しい手法を提案する。
我々のエージェントは、非常に観察可能な部分的なRLタスクでスクラッチから学習し、トレーニング中に見つからないケースで、全体のパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2022-10-07T20:28:25Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。