論文の概要: Towards Feasible Counterfactual Explanations: A Taxonomy Guided
Template-based NLG Method
- arxiv url: http://arxiv.org/abs/2310.02019v1
- Date: Tue, 3 Oct 2023 12:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 14:18:43.854779
- Title: Towards Feasible Counterfactual Explanations: A Taxonomy Guided
Template-based NLG Method
- Title(参考訳): ファシブル・カウンターファクチュアル・説明に向けて:分類基準テンプレートに基づくNLG法
- Authors: Pedram Salimi, Nirmalie Wiratunga, David Corsar, Anjana Wijekoon
- Abstract要約: 対実的説明 (cf-XAI) は、あるクラスから別のクラスへ結果を変更するのに必要な特徴値の最小限の変更を記述する。
多くのcf-XAI法はこれらの変化の可能性を無視している。
自然言語におけるcf-XAI提示のための新しいアプローチ(Natural-XAI)を提案する。
- 参考スコア(独自算出の注目度): 0.5003525838309206
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Counterfactual Explanations (cf-XAI) describe the smallest changes in feature
values necessary to change an outcome from one class to another. However, many
cf-XAI methods neglect the feasibility of those changes. In this paper, we
introduce a novel approach for presenting cf-XAI in natural language
(Natural-XAI), giving careful consideration to actionable and comprehensible
aspects while remaining cognizant of immutability and ethical concerns. We
present three contributions to this endeavor. Firstly, through a user study, we
identify two types of themes present in cf-XAI composed by humans:
content-related, focusing on how features and their values are included from
both the counterfactual and the query perspectives; and structure-related,
focusing on the structure and terminology used for describing necessary value
changes. Secondly, we introduce a feature actionability taxonomy with four
clearly defined categories, to streamline the explanation presentation process.
Using insights from the user study and our taxonomy, we created a generalisable
template-based natural language generation (NLG) method compatible with
existing explainers like DICE, NICE, and DisCERN, to produce counterfactuals
that address the aforementioned limitations of existing approaches. Finally, we
conducted a second user study to assess the performance of our taxonomy-guided
NLG templates on three domains. Our findings show that the taxonomy-guided
Natural-XAI approach (n-XAI^T) received higher user ratings across all
dimensions, with significantly improved results in the majority of the domains
assessed for articulation, acceptability, feasibility, and sensitivity
dimensions.
- Abstract(参考訳): 対実説明 (cf-XAI) は、あるクラスから別のクラスへ結果を変更するのに必要な特徴値の最小限の変更を記述する。
しかし、多くのcf-XAI法はこれらの変化の可能性を無視している。
本稿では,自然言語(Natural-XAI)でcf-XAIを提示するための新しいアプローチを提案する。
我々はこの取り組みに3つの貢献をする。
まず,人間によって構成されるcf-xaiにおける2つのテーマをユーザ調査により同定した。コンテンツ関連,反事実的およびクエリ的視点から特徴とその値がどのように含まれているか,そして,必要な価値変化を記述するための構造と用語に注目した構造関連である。
次に,4つの明確に定義されたカテゴリーを持つ特徴行動性分類を導入し,説明過程の合理化を図る。
ユーザ研究と分類学の知見を用いて,diceやnice,discernといった既存の説明器と互換性のある汎用的なテンプレートベースの自然言語生成(nlg)手法を開発し,前述の既存アプローチの制限に対応する反事実を生成する。
最後に,3つの領域における分類誘導型NLGテンプレートの性能評価を行った。
以上の結果から,n-xai^tアプローチは全次元において高いユーザ評価を受け,明瞭度,受容性,実現性,感度の面で評価された領域の大半で有意に改善した。
関連論文リスト
- Best of Both Worlds: A Pliable and Generalizable Neuro-Symbolic Approach
for Relation Classification [17.398872494876365]
本稿では,関係分類のための新しいニューロシンボリックアーキテクチャを提案する。
ルールベースの手法と現代のディープラーニング技術を組み合わせる。
提案手法は4つの設定のうち3つで従来の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-05T20:08:32Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Interpretability is not Explainability: New Quantitative XAI Approach
with a focus on Recommender Systems in Education [0.0]
我々は,XAIにおける重要な概念と関係の明確かつ曖昧な理解を提供する新しい分類法を提案する。
私たちのアプローチは、既存の定義やフレームワークの体系的な分析に根ざしています。
この包括的分類学は、将来の研究のための共通語彙を確立することを目的としている。
論文 参考訳(メタデータ) (2023-09-18T11:59:02Z) - Prompting or Fine-tuning? A Comparative Study of Large Language Models
for Taxonomy Construction [0.8670827427401335]
構造的制約を考慮した分類学構築のための一般的な枠組みを提案する。
我々は,超音速分類法と新しいコンピュータサイエンス分類法データセットで実施される即興的および微調整的アプローチを比較した。
論文 参考訳(メタデータ) (2023-09-04T16:53:17Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in
Conversation [19.663265448700002]
会話における感情認識(ERC)に関するこれまでの研究は、2段階のパラダイムを踏襲している。
本研究では,文脈情報と対話構造情報を微調整段階において探索する新しいパラダイムを提案する。
本稿では,提案パラダイムに従って,ERC モデル BERT-ERC を開発し,ERC の性能を3つの面で向上させる。
論文 参考訳(メタデータ) (2023-01-17T08:03:32Z) - NeuroCounterfactuals: Beyond Minimal-Edit Counterfactuals for Richer
Data Augmentation [55.17069935305069]
本稿では,緩やかな反ファクトとして設計されたNeuroCounterfactualsを紹介する。
我々の新しい生成的アプローチは、言語モデル適応による感情制御による制約付き復号化の利点を橋渡しする。
論文 参考訳(メタデータ) (2022-10-22T06:29:21Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。