論文の概要: Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic
- arxiv url: http://arxiv.org/abs/2109.08927v1
- Date: Sat, 18 Sep 2021 13:04:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 11:10:22.048034
- Title: Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic
- Title(参考訳): 神経ファジィ論理を用いた説明可能なファジィ推論
- Authors: Zijun Wu, Atharva Naik, Zi Xuan Zhang, Lili Mou
- Abstract要約: 自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
- 参考スコア(独自算出の注目度): 24.868479255640718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language inference (NLI) aims to determine the logical relationship
between two sentences among the target labels Entailment, Contradiction, and
Neutral. In recent years, deep learning models have become a prevailing
approach to NLI, but they lack interpretability and explainability. In this
work, we address the explainability for NLI by weakly supervised logical
reasoning, and propose an Explainable Phrasal Reasoning (EPR) approach. Our
model first detects phrases as the semantic unit and aligns corresponding
phrases. Then, the model predicts the NLI label for the aligned phrases, and
induces the sentence label by fuzzy logic formulas. Our EPR is almost
everywhere differentiable and thus the system can be trained end-to-end in a
weakly supervised manner. We annotated a corpus and developed a set of metrics
to evaluate phrasal reasoning. Results show that our EPR yields much more
meaningful explanations in terms of F scores than previous studies. To the best
of our knowledge, we are the first to develop a weakly supervised phrasal
reasoning model for the NLI task.
- Abstract(参考訳): 自然言語推論(NLI)は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
近年、ディープラーニングモデルはNLIの一般的なアプローチとなっているが、解釈可能性や説明性は欠如している。
本研究では,NLIの論理的推論が弱いことによる説明可能性に対処し,説明可能なPhrasal Reasoning(EPR)アプローチを提案する。
本モデルではまず,単語を意味単位として検出し,対応するフレーズをアライメントする。
そして、モデルが一致した句のNLIラベルを予測し、ファジィ論理式により文ラベルを誘導する。
当社のEPRはほぼどこでも差別化可能であり、システムのエンドツーエンドのトレーニングを弱教師付きで行うことが可能です。
我々はコーパスに注釈を付け,フレーズ推論を評価するための指標セットを開発した。
その結果,EPRは従来の研究よりもFスコアよりも有意義な説明が得られた。
我々の知る限り、我々はNLIタスクのための弱教師付きフレーズ推論モデルを開発した最初の人物である。
関連論文リスト
- Extending Logic Explained Networks to Text Classification [5.289706151390118]
我々はLENpを提案し、入力語を摂動することで局所的な説明を改善し、テキスト分類でそれをテストする。
その結果, (i) LENp は LIME よりも感度, 忠実度, (ii) 論理的説明は LIME の機能評価よりも有用で, ユーザフレンドリであることがわかった。
論文 参考訳(メタデータ) (2022-11-04T16:12:03Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - Logic Explained Networks [27.800583434727805]
ネットワークのマインドフルな設計が,論理説明ネットワーク(LEN)と呼ばれる解釈可能なディープラーニングモデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、単純な一階述語論理(FOL)の式で説明を提供する。
LENは、決定木やベイズルールリストのような、確立されたホワイトボックスモデルよりも優れた分類が得られる。
論文 参考訳(メタデータ) (2021-08-11T10:55:42Z) - Measuring Association Between Labels and Free-Text Rationales [60.58672852655487]
解釈可能なNLPでは、説明された例に対するモデルの意思決定プロセスを反映した忠実な理性が必要です。
情報抽出型タスクに対する忠実な抽出合理化のための既存のモデルであるパイプラインは、自由テキスト合理化を必要とするタスクに確実に拡張されないことを示す。
我々は、信頼が確立されていない自由文合理化のための、広く使われている高性能モデルのクラスである、共同予測と合理化のモデルに目を向ける。
論文 参考訳(メタデータ) (2020-10-24T03:40:56Z) - NILE : Natural Language Inference with Faithful Natural Language
Explanations [10.074153632701952]
ラベル特定説明(NILE)に対する自然言語推論を提案する。
NILEは、ラベル固有の説明を自動生成し、その忠実な説明とともにラベルを作成する新しいNLI手法である。
我々は, NILE の説明の忠実さを, 対応する説明に対する決定の敏感さの観点から論じる。
論文 参考訳(メタデータ) (2020-05-25T13:56:03Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。