論文の概要: NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning
- arxiv url: http://arxiv.org/abs/2209.07662v5
- Date: Mon, 12 Aug 2024 23:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 23:38:51.708183
- Title: NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning
- Title(参考訳): NELLIE: グラウンドド、コンポジション、説明可能な推論のためのニューロシンボリック推論エンジン
- Authors: Nathaniel Weir, Peter Clark, Benjamin Van Durme,
- Abstract要約: 本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
- 参考スコア(独自算出の注目度): 59.16962123636579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our goal is a modern approach to answering questions via systematic reasoning where answers are supported by human interpretable proof trees grounded in an NL corpus of authoritative facts. Such a system would help alleviate the challenges of interpretability and hallucination with modern LMs, and the lack of grounding of current explanation methods (e.g., Chain-of-Thought). This paper proposes a new take on Prolog-based inference engines, where we replace handcrafted rules with a combination of neural language modeling, guided generation, and semiparametric dense retrieval. Our implementation, NELLIE, is the first system to demonstrate fully interpretable, end-to-end grounded QA as entailment tree proof search, going beyond earlier work explaining known-to-be-true facts from text. In experiments, NELLIE outperforms a similar-sized state-of-the-art reasoner [Tafjord et al., 2022] while producing knowledge-grounded explanations. We also find NELLIE can exploit both semi-structured and NL text corpora to guide reasoning. Together these suggest a new way to jointly reap the benefits of both modern neural methods and traditional symbolic reasoning.
- Abstract(参考訳): 我々のゴールは、NLコーパスの権威的事実に根ざした人間の解釈可能な証明木によって、答えが支持されるような体系的な推論を通じて、質問に答えるための近代的なアプローチである。
このようなシステムは、現代のLMとの解釈可能性や幻覚の課題を緩和し、現在の説明方法(例えばChain-of-Thought)の基盤を欠くのに役立つだろう。
本稿では,手作りルールをニューラルネットワークモデリング,誘導生成,半パラメトリック高密度検索の組み合わせで置き換えるPrologベースの推論エンジンを提案する。
我々の実装であるNELLIEは、テキストから既知の事実を解説する以前の研究を超えて、包括木証明探索として、完全に解釈可能でエンドツーエンドの接地されたQAを示す最初のシステムである。
実験では、NELLIEは知識に基づく説明をしながら、同様の大きさの最先端の推論器(Tafjord et al , 2022)より優れています。
また、NELLIEは半構造化テキストコーパスとNLテキストコーパスの両方を利用して推論を導くことができる。
これらが合わさって、現代のニューラルメソッドと伝統的なシンボリック推論の両方の利点を共同で享受する方法が提案されている。
関連論文リスト
- Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z) - Emulating the Human Mind: A Neural-symbolic Link Prediction Model with
Fast and Slow Reasoning and Filtered Rules [4.979279893937017]
本稿では,FaSt-FLiPというニューラル・シンボリックモデルを提案する。
我々の目標は、リンク予測の強化のための論理モデルとニューラルモデルを組み合わせることである。
論文 参考訳(メタデータ) (2023-10-21T12:45:11Z) - Faithfulness Tests for Natural Language Explanations [87.01093277918599]
ニューラルモデルの説明は、その予測のためのモデルの意思決定プロセスを明らかにすることを目的としている。
近年の研究では,サリエンシマップやファクトファクトファクトダクトなどの説明を行う手法が誤解を招く可能性があることが示されている。
本研究は,自然言語の説明の忠実さを評価する上での課題について考察する。
論文 参考訳(メタデータ) (2023-05-29T11:40:37Z) - Explaining Deep Learning Hidden Neuron Activations using Concept
Induction [3.6223658572137825]
最先端技術は、隠れたノードのアクティベーションが人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-01-23T18:14:32Z) - Explanatory Learning: Beyond Empiricism in Neural Networks [12.622254638367504]
本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-25T10:21:53Z) - Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic [24.868479255640718]
自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
論文 参考訳(メタデータ) (2021-09-18T13:04:23Z) - LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking [62.634516517844496]
本稿では,解釈可能なルールとニューラルネットワークの性能を併用したニューラルシンボリックアプローチであるLNN-ELを提案する。
ルールの使用に制約があるにもかかわらず、LNN-ELはSotAのブラックボックスニューラルアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-17T20:22:45Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。