論文の概要: Dynamic Generation of Grounded Logical Explanations in a Neuro-Symbolic
Expert System
- arxiv url: http://arxiv.org/abs/2209.07662v3
- Date: Wed, 17 May 2023 19:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:50:44.400700
- Title: Dynamic Generation of Grounded Logical Explanations in a Neuro-Symbolic
Expert System
- Title(参考訳): ニューロシンボリックエキスパートシステムにおける接地論理説明の動的生成
- Authors: Nathaniel Weir and Benjamin Van Durme
- Abstract要約: ファクトベースに接地した人間の解釈可能な証明木を生成する体系的推論手法を提案する。
提案手法は従来の Prolog ベースの推論エンジンを導入し,ニューラルネットワークモデリング,誘導生成,半パラメトリック高密度検索を組み合わせることで,手作業によるルールを置き換える。
提案手法は,自然言語文に対する係り受け(de)を捕捉・スコアする解釈可能な推論規則を動的にインスタンス化する,新しいシステムであるNELLIEを用いて実証する。
- 参考スコア(独自算出の注目度): 37.460129879309186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach for systematic reasoning that produces human
interpretable proof trees grounded in a factbase. Our approach evokes classic
Prolog-based inference engines, where we replace handcrafted rules by combining
neural language modeling, guided generation, and semiparametric dense
retrieval. We demonstrate this approach through a novel system, NELLIE, which
dynamically instantiates interpretable inference rules that capture and score
entailment (de)compositions over natural language statements. This leads to
strong performance, as shown in the scientific reasoning domain, while also
producing reasoning traces showing how answers derive logically from the
composition of human-verified facts.
- Abstract(参考訳): ファクトベースに接地した人間の解釈可能な証明木を生成する体系的推論手法を提案する。
提案手法は従来の Prolog ベースの推論エンジンを導入し,ニューラルネットワークモデリング,誘導生成,半パラメトリック密度検索を組み合わせた手作りルールを置き換える。
提案手法は,自然言語文の係り受け(de)を捕捉・スコアする解釈可能な推論規則を動的にインスタンス化する新しいシステムであるNELLIEを用いて実証する。
これは科学的推論領域で示されるように、強力なパフォーマンスにつながると同時に、人が検証した事実の構成からいかに答えが論理的に導かれるかを示す推論トレースを生成する。
関連論文リスト
- Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z) - Emulating the Human Mind: A Neural-symbolic Link Prediction Model with
Fast and Slow Reasoning and Filtered Rules [4.979279893937017]
本稿では,FaSt-FLiPというニューラル・シンボリックモデルを提案する。
我々の目標は、リンク予測の強化のための論理モデルとニューラルモデルを組み合わせることである。
論文 参考訳(メタデータ) (2023-10-21T12:45:11Z) - Faithfulness Tests for Natural Language Explanations [87.01093277918599]
ニューラルモデルの説明は、その予測のためのモデルの意思決定プロセスを明らかにすることを目的としている。
近年の研究では,サリエンシマップやファクトファクトファクトダクトなどの説明を行う手法が誤解を招く可能性があることが示されている。
本研究は,自然言語の説明の忠実さを評価する上での課題について考察する。
論文 参考訳(メタデータ) (2023-05-29T11:40:37Z) - Explaining Deep Learning Hidden Neuron Activations using Concept
Induction [3.6223658572137825]
最先端技術は、隠れたノードのアクティベーションが人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-01-23T18:14:32Z) - Explanatory Learning: Beyond Empiricism in Neural Networks [12.622254638367504]
本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-25T10:21:53Z) - Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic [24.868479255640718]
自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
論文 参考訳(メタデータ) (2021-09-18T13:04:23Z) - LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking [62.634516517844496]
本稿では,解釈可能なルールとニューラルネットワークの性能を併用したニューラルシンボリックアプローチであるLNN-ELを提案する。
ルールの使用に制約があるにもかかわらず、LNN-ELはSotAのブラックボックスニューラルアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-17T20:22:45Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。