論文の概要: Three Pathways to Neurosymbolic Reinforcement Learning with
Interpretable Model and Policy Networks
- arxiv url: http://arxiv.org/abs/2402.05307v1
- Date: Wed, 7 Feb 2024 23:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 16:54:27.621766
- Title: Three Pathways to Neurosymbolic Reinforcement Learning with
Interpretable Model and Policy Networks
- Title(参考訳): 解釈モデルと政策ネットワークを用いたニューロシンボリック強化学習への3つの経路
- Authors: Peter Graf and Patrick Emami
- Abstract要約: 我々は、解釈可能なセマンティクスをアーキテクチャに直接組み込むニューラルネットワークのクラスについて研究する。
我々は、論理、シミュレーション、学習を組み合わせることの潜在的な難しさと重要な難しさを明らかにし、強調する。
- 参考スコア(独自算出の注目度): 4.242435932138821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neurosymbolic AI combines the interpretability, parsimony, and explicit
reasoning of classical symbolic approaches with the statistical learning of
data-driven neural approaches. Models and policies that are simultaneously
differentiable and interpretable may be key enablers of this marriage. This
paper demonstrates three pathways to implementing such models and policies in a
real-world reinforcement learning setting. Specifically, we study a broad class
of neural networks that build interpretable semantics directly into their
architecture. We reveal and highlight both the potential and the essential
difficulties of combining logic, simulation, and learning. One lesson is that
learning benefits from continuity and differentiability, but classical logic is
discrete and non-differentiable. The relaxation to real-valued, differentiable
representations presents a trade-off; the more learnable, the less
interpretable. Another lesson is that using logic in the context of a numerical
simulation involves a non-trivial mapping from raw (e.g., real-valued time
series) simulation data to logical predicates. Some open questions this note
exposes include: What are the limits of rule-based controllers, and how
learnable are they? Do the differentiable interpretable approaches discussed
here scale to large, complex, uncertain systems? Can we truly achieve
interpretability? We highlight these and other themes across the three
approaches.
- Abstract(参考訳): ニューロシンボリックAIは、古典的シンボリックアプローチの解釈可能性、パーシモニー、明示的な推論と、データ駆動型ニューラルアプローチの統計的学習を組み合わせる。
同時に微分可能かつ解釈可能なモデルとポリシーは、この結婚の鍵となる可能性がある。
本稿では,実世界の強化学習環境において,そのようなモデルとポリシーを実装するための3つの経路を示す。
具体的には、解釈可能なセマンティクスをアーキテクチャに直接組み込むニューラルネットワークの幅広いクラスについて研究する。
論理,シミュレーション,学習を組み合わせることの難しさと本質的な難しさを明らかにした。
学習は連続性と微分可能性から恩恵を受けるが、古典論理は離散的で微分不可能である。
実数値で微分可能な表現への緩和はトレードオフを示し、より学習しやすく、解釈しにくくなる。
もう1つの教訓は、数値シミュレーションの文脈で論理を用いることは、生(実数値時系列)シミュレーションデータから論理述語への非自明なマッピングである。
ルールベースのコントローラの限界と、どの程度の学習が可能なのか?
ここで議論された微分可能な解釈可能なアプローチは、大規模で複雑で不確実なシステムにスケールするか?
真に解釈可能でしょうか?
これらとその他のテーマを3つのアプローチで強調する。
関連論文リスト
- Data Science Principles for Interpretable and Explainable AI [0.7581664835990121]
解釈可能でインタラクティブな機械学習は、複雑なモデルをより透明で制御しやすいものにすることを目的としている。
本論は, この分野における文献の発達から重要な原則を合成するものである。
論文 参考訳(メタデータ) (2024-05-17T05:32:27Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Interpretable Multimodal Misinformation Detection with Logic Reasoning [40.851213962307206]
本稿では,多モーダル誤情報検出のための論理モデルを提案する。
本稿では,意味のある論理節の自動生成と評価を容易にするニューラル表現を用いた記号論理要素のパラメータ化を行う。
3つの公開データセットの結果は、我々のモデルの有効性と汎用性を示している。
論文 参考訳(メタデータ) (2023-05-10T08:16:36Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - pix2rule: End-to-end Neuro-symbolic Rule Learning [84.76439511271711]
本稿では,画像のオブジェクトへの処理,学習関係,論理規則に関する完全なニューロシンボリックな手法を提案する。
主な貢献は、シンボリックリレーションとルールを抽出できるディープラーニングアーキテクチャにおける差別化可能なレイヤである。
我々のモデルは最先端のシンボリックラーナーを超えてスケールし、ディープリレーショナルニューラルネットワークアーキテクチャよりも優れていることを実証する。
論文 参考訳(メタデータ) (2021-06-14T15:19:06Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Analyzing Differentiable Fuzzy Implications [3.4806267677524896]
本研究では,ファジィ論理文からの含意が,異なる場面でどのように振る舞うかを考察する。
様々なファジィな含意が、最もよく知られているものも含めて、異なる学習環境での使用に非常に適していないことが判明した。
我々は,この現象に対処するために,新しいファジィ含意(sigmoidal含意(sigmoidal含意))を導入した。
論文 参考訳(メタデータ) (2020-06-04T15:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。