論文の概要: Towards Feasible Counterfactual Explanations: A Taxonomy Guided
Template-based NLG Method
- arxiv url: http://arxiv.org/abs/2310.02019v1
- Date: Tue, 3 Oct 2023 12:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 14:18:43.854779
- Title: Towards Feasible Counterfactual Explanations: A Taxonomy Guided
Template-based NLG Method
- Title(参考訳): ファシブル・カウンターファクチュアル・説明に向けて:分類基準テンプレートに基づくNLG法
- Authors: Pedram Salimi, Nirmalie Wiratunga, David Corsar, Anjana Wijekoon
- Abstract要約: 対実的説明 (cf-XAI) は、あるクラスから別のクラスへ結果を変更するのに必要な特徴値の最小限の変更を記述する。
多くのcf-XAI法はこれらの変化の可能性を無視している。
自然言語におけるcf-XAI提示のための新しいアプローチ(Natural-XAI)を提案する。
- 参考スコア(独自算出の注目度): 0.5003525838309206
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Counterfactual Explanations (cf-XAI) describe the smallest changes in feature
values necessary to change an outcome from one class to another. However, many
cf-XAI methods neglect the feasibility of those changes. In this paper, we
introduce a novel approach for presenting cf-XAI in natural language
(Natural-XAI), giving careful consideration to actionable and comprehensible
aspects while remaining cognizant of immutability and ethical concerns. We
present three contributions to this endeavor. Firstly, through a user study, we
identify two types of themes present in cf-XAI composed by humans:
content-related, focusing on how features and their values are included from
both the counterfactual and the query perspectives; and structure-related,
focusing on the structure and terminology used for describing necessary value
changes. Secondly, we introduce a feature actionability taxonomy with four
clearly defined categories, to streamline the explanation presentation process.
Using insights from the user study and our taxonomy, we created a generalisable
template-based natural language generation (NLG) method compatible with
existing explainers like DICE, NICE, and DisCERN, to produce counterfactuals
that address the aforementioned limitations of existing approaches. Finally, we
conducted a second user study to assess the performance of our taxonomy-guided
NLG templates on three domains. Our findings show that the taxonomy-guided
Natural-XAI approach (n-XAI^T) received higher user ratings across all
dimensions, with significantly improved results in the majority of the domains
assessed for articulation, acceptability, feasibility, and sensitivity
dimensions.
- Abstract(参考訳): 対実説明 (cf-XAI) は、あるクラスから別のクラスへ結果を変更するのに必要な特徴値の最小限の変更を記述する。
しかし、多くのcf-XAI法はこれらの変化の可能性を無視している。
本稿では,自然言語(Natural-XAI)でcf-XAIを提示するための新しいアプローチを提案する。
我々はこの取り組みに3つの貢献をする。
まず,人間によって構成されるcf-xaiにおける2つのテーマをユーザ調査により同定した。コンテンツ関連,反事実的およびクエリ的視点から特徴とその値がどのように含まれているか,そして,必要な価値変化を記述するための構造と用語に注目した構造関連である。
次に,4つの明確に定義されたカテゴリーを持つ特徴行動性分類を導入し,説明過程の合理化を図る。
ユーザ研究と分類学の知見を用いて,diceやnice,discernといった既存の説明器と互換性のある汎用的なテンプレートベースの自然言語生成(nlg)手法を開発し,前述の既存アプローチの制限に対応する反事実を生成する。
最後に,3つの領域における分類誘導型NLGテンプレートの性能評価を行った。
以上の結果から,n-xai^tアプローチは全次元において高いユーザ評価を受け,明瞭度,受容性,実現性,感度の面で評価された領域の大半で有意に改善した。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - Optimal and efficient text counterfactuals using Graph Neural Networks [1.9939549451457024]
本稿では, 意味的に編集されたインプットを生成することで, 上記の処理を実現するフレームワークを提案する。
我々は2つのNLPタスク – バイナリ感情分類とトピック分類 – でフレームワークをテストし、生成した編集がコントラストがあり、流動的で、最小限であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:09:13Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Prompting or Fine-tuning? A Comparative Study of Large Language Models
for Taxonomy Construction [0.8670827427401335]
構造的制約を考慮した分類学構築のための一般的な枠組みを提案する。
我々は,超音速分類法と新しいコンピュータサイエンス分類法データセットで実施される即興的および微調整的アプローチを比較した。
論文 参考訳(メタデータ) (2023-09-04T16:53:17Z) - BERT-ERC: Fine-tuning BERT is Enough for Emotion Recognition in
Conversation [19.663265448700002]
会話における感情認識(ERC)に関するこれまでの研究は、2段階のパラダイムを踏襲している。
本研究では,文脈情報と対話構造情報を微調整段階において探索する新しいパラダイムを提案する。
本稿では,提案パラダイムに従って,ERC モデル BERT-ERC を開発し,ERC の性能を3つの面で向上させる。
論文 参考訳(メタデータ) (2023-01-17T08:03:32Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。