論文の概要: Dynamic Generation of Interpretable Inference Rules in a Neuro-Symbolic
Expert System
- arxiv url: http://arxiv.org/abs/2209.07662v1
- Date: Fri, 16 Sep 2022 00:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:23:31.596039
- Title: Dynamic Generation of Interpretable Inference Rules in a Neuro-Symbolic
Expert System
- Title(参考訳): ニューロシンボリックエキスパートシステムにおける解釈型推論規則の動的生成
- Authors: Nathaniel Weir and Benjamin Van Durme
- Abstract要約: ファクトベースに接地した人間の解釈可能な証明木を生成する体系的推論手法を提案する。
我々のソリューションは古典的なPrologベースの推論エンジンのスタイルに似ており、ニューラルネットワークモデリング、ガイド付き生成、半パラメトリック高密度検索の組み合わせによって手作りのルールを置き換える。
この新しい推論エンジンであるNELLIEは動的に解釈可能な推論ルールをインスタンス化し、自然言語の文に対する包含(de)をキャプチャし、スコアする。
- 参考スコア(独自算出の注目度): 37.460129879309186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach for systematic reasoning that produces human
interpretable proof trees grounded in a factbase. Our solution resembles the
style of a classic Prolog-based inference engine, where we replace handcrafted
rules through a combination of neural language modeling, guided generation, and
semiparametric dense retrieval. This novel reasoning engine, NELLIE,
dynamically instantiates interpretable inference rules that capture and score
entailment (de)compositions over natural language statements. NELLIE provides
competitive performance on scientific QA datasets requiring structured
explanations over multiple facts.
- Abstract(参考訳): ファクトベースに接地した人間の解釈可能な証明木を生成する体系的推論手法を提案する。
我々のソリューションは古典的なPrologベースの推論エンジンのスタイルに似ており、ニューラルネットワークモデリング、ガイド付き生成、半パラメトリック高密度検索を組み合わせた手作りルールを置き換える。
この新しい推論エンジンであるNELLIEは動的に解釈可能な推論ルールをインスタンス化し、自然言語の文に対する包含(de)をキャプチャし、スコアする。
NELLIEは、複数の事実に関する構造化された説明を必要とする科学的なQAデータセット上での競合性能を提供する。
関連論文リスト
- Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z) - Emulating the Human Mind: A Neural-symbolic Link Prediction Model with
Fast and Slow Reasoning and Filtered Rules [4.979279893937017]
本稿では,FaSt-FLiPというニューラル・シンボリックモデルを提案する。
我々の目標は、リンク予測の強化のための論理モデルとニューラルモデルを組み合わせることである。
論文 参考訳(メタデータ) (2023-10-21T12:45:11Z) - Faithfulness Tests for Natural Language Explanations [87.01093277918599]
ニューラルモデルの説明は、その予測のためのモデルの意思決定プロセスを明らかにすることを目的としている。
近年の研究では,サリエンシマップやファクトファクトファクトダクトなどの説明を行う手法が誤解を招く可能性があることが示されている。
本研究は,自然言語の説明の忠実さを評価する上での課題について考察する。
論文 参考訳(メタデータ) (2023-05-29T11:40:37Z) - Explaining Deep Learning Hidden Neuron Activations using Concept
Induction [3.6223658572137825]
最先端技術は、隠れたノードのアクティベーションが人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-01-23T18:14:32Z) - Explanatory Learning: Beyond Empiricism in Neural Networks [12.622254638367504]
本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-25T10:21:53Z) - Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic [24.868479255640718]
自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
論文 参考訳(メタデータ) (2021-09-18T13:04:23Z) - LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking [62.634516517844496]
本稿では,解釈可能なルールとニューラルネットワークの性能を併用したニューラルシンボリックアプローチであるLNN-ELを提案する。
ルールの使用に制約があるにもかかわらず、LNN-ELはSotAのブラックボックスニューラルアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-17T20:22:45Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。