論文の概要: Argumentative Explanations for Pattern-Based Text Classifiers
- arxiv url: http://arxiv.org/abs/2205.10932v1
- Date: Sun, 22 May 2022 21:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:13:55.889786
- Title: Argumentative Explanations for Pattern-Based Text Classifiers
- Title(参考訳): パターンベーステキスト分類器の解説的説明
- Authors: Piyawat Lertvittayakumjorn, Francesca Toni
- Abstract要約: 文分類のためのパターンベースロジスティック回帰(PLR)という,特定の解釈可能なモデルの説明に焦点をあてる。
本稿では,AXPLRを提案する。AXPLRは,計算論法を用いて説明文を生成する新しい説明法である。
- 参考スコア(独自算出の注目度): 15.81939090849456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works in Explainable AI mostly address the transparency issue of
black-box models or create explanations for any kind of models (i.e., they are
model-agnostic), while leaving explanations of interpretable models largely
underexplored. In this paper, we fill this gap by focusing on explanations for
a specific interpretable model, namely pattern-based logistic regression (PLR)
for binary text classification. We do so because, albeit interpretable, PLR is
challenging when it comes to explanations. In particular, we found that a
standard way to extract explanations from this model does not consider
relations among the features, making the explanations hardly plausible to
humans. Hence, we propose AXPLR, a novel explanation method using (forms of)
computational argumentation to generate explanations (for outputs computed by
PLR) which unearth model agreements and disagreements among the features.
Specifically, we use computational argumentation as follows: we see features
(patterns) in PLR as arguments in a form of quantified bipolar argumentation
frameworks (QBAFs) and extract attacks and supports between arguments based on
specificity of the arguments; we understand logistic regression as a gradual
semantics for these QBAFs, used to determine the arguments' dialectic strength;
and we study standard properties of gradual semantics for QBAFs in the context
of our argumentative re-interpretation of PLR, sanctioning its suitability for
explanatory purposes. We then show how to extract intuitive explanations (for
outputs computed by PLR) from the constructed QBAFs. Finally, we conduct an
empirical evaluation and two experiments in the context of human-AI
collaboration to demonstrate the advantages of our resulting AXPLR method.
- Abstract(参考訳): Explainable AIの最近の研究は、主にブラックボックスモデルの透明性の問題に対処し、どんな種類のモデルに対しても説明を作成する(モデルに依存しない)。
本稿では,バイナリテキスト分類のためのパターンベースロジスティックレグレッション(plr)という,特定の解釈可能なモデルの説明に注目して,このギャップを埋める。
なぜなら、解釈可能ではあるが、PLRは説明に関して難しいからだ。
特に,本モデルから説明を抽出する標準的な手法では特徴間の関係を考慮せず,人間にはほとんど説明できないことがわかった。
そこで本研究では,PLRで計算された結果について,その特徴間の一致や相違点を抽出した説明文を生成するために,計算論法(形式)を用いた新しい説明法であるAXPLRを提案する。
Specifically, we use computational argumentation as follows: we see features (patterns) in PLR as arguments in a form of quantified bipolar argumentation frameworks (QBAFs) and extract attacks and supports between arguments based on specificity of the arguments; we understand logistic regression as a gradual semantics for these QBAFs, used to determine the arguments' dialectic strength; and we study standard properties of gradual semantics for QBAFs in the context of our argumentative re-interpretation of PLR, sanctioning its suitability for explanatory purposes.
次に、構築したqbafから直感的な説明(plrで計算された出力)を抽出する方法を示す。
最後に,AXPLR法の利点を実証するために,人間とAIのコラボレーションの文脈における経験的評価と2つの実験を行った。
関連論文リスト
- When factorization meets argumentation: towards argumentative explanations [0.0]
因数分解に基づく手法と議論フレームワーク(AF)を組み合わせた新しいモデルを提案する。
我々のフレームワークは、ユーザコンテキストなどのサイド情報をシームレスに組み込んで、より正確な予測を可能にします。
論文 参考訳(メタデータ) (2024-05-13T19:16:28Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Towards More Faithful Natural Language Explanation Using Multi-Level
Contrastive Learning in VQA [7.141288053123662]
視覚的質問応答(VQA-NLE)における自然言語の説明は,ブラックボックスシステムに対するユーザの信頼を高めるために,自然言語文を生成することによって,モデルの意思決定プロセスを説明することを目的としている。
既存のポストホックな説明は、人間の論理的推論と常に一致している訳ではなく、1) 誘惑的不満足な説明は、生成した説明が論理的に答えに繋がらないこと、2) 現実的不整合性、2) 画像上の事実を考慮せずに解答の反事実的説明を偽示すること、3) 意味的摂動の過敏性、モデルは、小さな摂動によって引き起こされる意味的変化を認識できないこと、である。
論文 参考訳(メタデータ) (2023-12-21T05:51:55Z) - Leveraging Structured Information for Explainable Multi-hop Question
Answering and Reasoning [14.219239732584368]
本研究では,マルチホップ質問応答のための抽出された意味構造(グラフ)の構築と活用について検討する。
実験結果と人的評価の結果から、我々のフレームワークはより忠実な推論連鎖を生成し、2つのベンチマークデータセットのQA性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T05:32:39Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explaining Causal Models with Argumentation: the Case of Bi-variate
Reinforcement [15.947501347927687]
因果モデルから議論フレームワーク(AF)を生成するための概念化を導入する。
この概念化は、AFの意味論の望ましい性質を説明型として再解釈することに基づいている。
我々はこれらの論証的説明の理論的評価を行い、それらが望ましい説明的および論証的特性の範囲を満たすかどうかを検討する。
論文 参考訳(メタデータ) (2022-05-23T19:39:51Z) - Local Explanation of Dialogue Response Generation [77.68077106724522]
反応生成の局所的説明(LERG)は、生成モデルの推論過程に関する洞察を得るために提案される。
LERGは、シーケンス予測を人間の応答の不確実性推定とみなし、入力を摂動させ、人間の応答に対する確実性の変化を計算することによって説明を作成する。
提案手法は, 提案手法を改良し, 提案手法の4.4~12.8%を改良した。
論文 参考訳(メタデータ) (2021-06-11T17:58:36Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。