論文の概要: Extending Logic Explained Networks to Text Classification
- arxiv url: http://arxiv.org/abs/2211.09732v1
- Date: Fri, 4 Nov 2022 16:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 13:42:39.309965
- Title: Extending Logic Explained Networks to Text Classification
- Title(参考訳): logic explainedネットワークのテキスト分類への拡張
- Authors: Rishabh Jain, Gabriele Ciravegna, Pietro Barbiero, Francesco Giannini,
Davide Buffelli, Pietro Lio
- Abstract要約: 我々はLENpを提案し、入力語を摂動することで局所的な説明を改善し、テキスト分類でそれをテストする。
その結果, (i) LENp は LIME よりも感度, 忠実度, (ii) 論理的説明は LIME の機能評価よりも有用で, ユーザフレンドリであることがわかった。
- 参考スコア(独自算出の注目度): 5.289706151390118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, Logic Explained Networks (LENs) have been proposed as
explainable-by-design neural models providing logic explanations for their
predictions. However, these models have only been applied to vision and tabular
data, and they mostly favour the generation of global explanations, while local
ones tend to be noisy and verbose. For these reasons, we propose LENp,
improving local explanations by perturbing input words, and we test it on text
classification. Our results show that (i) LENp provides better local
explanations than LIME in terms of sensitivity and faithfulness, and (ii) logic
explanations are more useful and user-friendly than feature scoring provided by
LIME as attested by a human survey.
- Abstract(参考訳): 近年,論理記述型ニューラルネットワーク (LEN) は,その予測に論理的説明を与えるニューラルネットワークとして提案されている。
しかし、これらのモデルは視覚や表のデータにのみ適用されており、主にグローバルな説明の生成を好んでおり、地元のモデルはうるさくて冗長な傾向にある。
これらの理由から,入力語を摂動することで局所的な説明を改善するLENpを提案し,テキスト分類で検証する。
私たちの結果は
i)LENpは、感度と忠実性の点でLIMEよりも優れた局所的説明を提供し、
(II)LIMEが提供する特徴評価よりも,論理的説明の方が有用で,ユーザフレンドリである。
関連論文リスト
- LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - MaNtLE: Model-agnostic Natural Language Explainer [9.43206883360088]
モデルに依存しない自然言語説明器であるMaNtLEを導入し、複数の分類器の予測を解析する。
MaNtLEは、何千もの合成分類タスクでマルチタスクトレーニングを使用して、忠実な説明を生成する。
シミュレーションユーザスタディでは、平均して、MaNtLEの生成した説明は、LIMEやAnchorsの説明に比べて少なくとも11%忠実であることが示されている。
論文 参考訳(メタデータ) (2023-05-22T12:58:06Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic [24.868479255640718]
自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
論文 参考訳(メタデータ) (2021-09-18T13:04:23Z) - Logic Explained Networks [27.800583434727805]
ネットワークのマインドフルな設計が,論理説明ネットワーク(LEN)と呼ばれる解釈可能なディープラーニングモデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、単純な一階述語論理(FOL)の式で説明を提供する。
LENは、決定木やベイズルールリストのような、確立されたホワイトボックスモデルよりも優れた分類が得られる。
論文 参考訳(メタデータ) (2021-08-11T10:55:42Z) - On the Veracity of Local, Model-agnostic Explanations in Audio
Classification: Targeted Investigations with Adversarial Examples [5.744593856232663]
LIMEのようなローカルな説明手法がMIRで普及している。
本稿は、LIMEの説明の真正性についてより深い知見を得るための対象調査について報告する。
論文 参考訳(メタデータ) (2021-07-19T17:54:10Z) - Do Natural Language Explanations Represent Valid Logical Arguments?
Verifying Entailment in Explainable NLI Gold Standards [0.0]
説明可能なNLPの研究の新興ラインは、人間の注釈付き説明と合理性に富むデータセットの作成である。
人間の注釈付き説明は推論の根拠として使用されるが、それらの一貫性と厳密さの体系的な評価の欠如がある。
本論文では,ヒトの注釈付き説明の論理的妥当性を定量化するために,系統的アノテーション手法である説明関連検証(EEV)を提案する。
論文 参考訳(メタデータ) (2021-05-05T10:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。