論文の概要: Incorporating Relational Background Knowledge into Reinforcement
Learning via Differentiable Inductive Logic Programming
- arxiv url: http://arxiv.org/abs/2003.10386v1
- Date: Mon, 23 Mar 2020 16:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:41:56.345018
- Title: Incorporating Relational Background Knowledge into Reinforcement
Learning via Differentiable Inductive Logic Programming
- Title(参考訳): 微分帰納論理プログラミングによる強化学習への関係背景知識の導入
- Authors: Ali Payani and Faramarz Fekri
- Abstract要約: 微分帰納的論理プログラミング(ILP)に基づく新しい深層強化学習(RRL)を提案する。
本稿では,BoxWorld,GridWorldなどの環境と,Solt-of-CLEVRデータセットのリレーショナル推論を用いた新しいRRLフレームワークの有効性を示す。
- 参考スコア(独自算出の注目度): 8.122270502556374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relational Reinforcement Learning (RRL) can offers various desirable
features. Most importantly, it allows for incorporating expert knowledge into
the learning, and hence leading to much faster learning and better
generalization compared to the standard deep reinforcement learning. However,
most of the existing RRL approaches are either incapable of incorporating
expert background knowledge (e.g., in the form of explicit predicate language)
or are not able to learn directly from non-relational data such as image. In
this paper, we propose a novel deep RRL based on a differentiable Inductive
Logic Programming (ILP) that can effectively learn relational information from
image and present the state of the environment as first order logic predicates.
Additionally, it can take the expert background knowledge and incorporate it
into the learning problem using appropriate predicates. The differentiable ILP
allows an end to end optimization of the entire framework for learning the
policy in RRL. We show the efficacy of this novel RRL framework using
environments such as BoxWorld, GridWorld as well as relational reasoning for
the Sort-of-CLEVR dataset.
- Abstract(参考訳): リレーショナル強化学習(RRL)は様々な望ましい特徴を提供する。
最も重要なのは、専門知識を学習に取り入れることであり、標準の深層強化学習よりも学習の高速化と一般化の促進につながる。
しかしながら、既存のrrlアプローチのほとんどは、(例えば明示的な述語という形で)専門的なバックグラウンド知識を取り入れられないか、画像のような非関係データから直接学習できないかのどちらかである。
本稿では、画像から関係情報を効果的に学習し、第1次論理述語として環境の状態を示す、微分帰納的論理プログラミング(ILP)に基づく新しい深いRRLを提案する。
さらに、専門家のバックグラウンド知識を適切な述語を用いて学習問題に組み込むこともできる。
差別化可能なILPは、RRLでポリシーを学ぶためのフレームワーク全体のエンドツーエンドの最適化を可能にする。
本稿では,BoxWorld,GridWorldなどの環境とSolt-of-CLEVRデータセットのリレーショナル推論を用いた新しいRRLフレームワークの有効性を示す。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Towards an Information Theoretic Framework of Context-Based Offline Meta-Reinforcement Learning [48.79569442193824]
我々は,COMRLアルゴリズムが,タスク変数$M$と,その潜在表現$Z$の相互情報目的を,様々な近似境界を実装して最適化していることを示す。
本研究は,COMRL法の情報理論基盤を構築し,強化学習の文脈におけるタスク表現学習の理解を深める。
論文 参考訳(メタデータ) (2024-02-04T09:58:42Z) - Deep Inductive Logic Programming meets Reinforcement Learning [0.0]
微分可能なニューラルロジック(dNL)ネットワークは、そのニューラルアーキテクチャがシンボリック推論を含むため、関数を学習することができる。
動的連続環境に対処するための強化学習(RRL)分野におけるdNLの適用を提案する。
論文 参考訳(メタデータ) (2023-08-30T09:08:46Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Offline RL for Natural Language Generation with Implicit Language Q
Learning [87.76695816348027]
ユーザ指定タスクの完了に関して、大きな言語モデルは矛盾する可能性がある。
本稿では,RLのフレキシブル・ユーティリティ・フレームワークと教師あり学習能力を組み合わせた新しいRL手法を提案する。
ILQLの実証的な検証に加えて、オフラインRLが自然言語生成設定で有用となるような、詳細な経験的分析状況も提示する。
論文 参考訳(メタデータ) (2022-06-05T18:38:42Z) - Contextualize Me -- The Case for Context in Reinforcement Learning [49.794253971446416]
文脈強化学習(cRL)は、このような変化を原則的にモデル化するためのフレームワークを提供する。
我々は,cRLが有意義なベンチマークや一般化タスクに関する構造化推論を通じて,RLのゼロショット一般化の改善にどのように貢献するかを示す。
論文 参考訳(メタデータ) (2022-02-09T15:01:59Z) - CARL: A Benchmark for Contextual and Adaptive Reinforcement Learning [45.52724876199729]
本稿では、文脈RL問題に拡張されたよく知られたRL環境の集合であるCARLについて述べる。
政策学習から状態の表現学習と文脈を分離することで、より一般化が促進されるという最初の証拠を提供する。
論文 参考訳(メタデータ) (2021-10-05T15:04:01Z) - Fractional Transfer Learning for Deep Model-Based Reinforcement Learning [0.966840768820136]
強化学習(Reinforcement Learning, RL)は、RLエージェントが複雑なタスクを実行することを学ぶために大量のデータを必要とすることで知られている。
モデルベースRLの最近の進歩により、エージェントはずっとデータ効率が良い。
簡単な代替手法として、分数変換学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T12:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。