論文の概要: INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations
- arxiv url: http://arxiv.org/abs/2209.01061v1
- Date: Fri, 2 Sep 2022 13:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:04:55.390466
- Title: INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations
- Title(参考訳): InterACTION: 自然言語推論記述のための生成型XAIフレームワーク
- Authors: Jialin Yu, Alexandra I. Cristea, Anoushka Harit, Zhongtian Sun,
Olanrewaju Tahir Aduragba, Lei Shi, Noura Al Moubayed
- Abstract要約: 現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
- 参考スコア(独自算出の注目度): 58.062003028768636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: XAI with natural language processing aims to produce human-readable
explanations as evidence for AI decision-making, which addresses explainability
and transparency. However, from an HCI perspective, the current approaches only
focus on delivering a single explanation, which fails to account for the
diversity of human thoughts and experiences in language. This paper thus
addresses this gap, by proposing a generative XAI framework, INTERACTION
(explaIn aNd predicT thEn queRy with contextuAl CondiTional varIational
autO-eNcoder). Our novel framework presents explanation in two steps: (step
one) Explanation and Label Prediction; and (step two) Diverse Evidence
Generation. We conduct intensive experiments with the Transformer architecture
on a benchmark dataset, e-SNLI. Our method achieves competitive or better
performance against state-of-the-art baseline models on explanation generation
(up to 4.7% gain in BLEU) and prediction (up to 4.4% gain in accuracy) in step
one; it can also generate multiple diverse explanations in step two.
- Abstract(参考訳): 自然言語処理を備えたXAIは、説明可能性と透明性に対処するAI意思決定の証拠として、人間が読める説明を生成することを目的としている。
しかし、hciの観点からは、現在のアプローチは単一の説明を提供することにのみ焦点を合わせており、言語における人間の思考と経験の多様性を考慮できていない。
そこで本研究では,このギャップに対処するため,生成型XAIフレームワークであるInterinterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional varIational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
ベンチマークデータセット e-SNLI 上でTransformer アーキテクチャによる集中的な実験を行う。
提案手法は,ステップ1における説明生成(BLEUでは最大4.7%,精度では最大4.4%)と予測(最大4.4%)に基づいて,最先端のベースラインモデルに対する競合的あるいはより良い性能を実現する。
関連論文リスト
- Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text [4.902089836908786]
WhosAIは、与えられた入力テキストが人間かAIによって生成されたかを予測するために設計された3重ネットワークコントラスト学習フレームワークである。
提案するフレームワークは,チューリングテストとオーサリングの両タスクにおいて,優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-12T15:44:56Z) - Solving the enigma: Deriving optimal explanations of deep networks [3.9584068556746246]
本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Towards Feasible Counterfactual Explanations: A Taxonomy Guided
Template-based NLG Method [0.5003525838309206]
対実的説明 (cf-XAI) は、あるクラスから別のクラスへ結果を変更するのに必要な特徴値の最小限の変更を記述する。
多くのcf-XAI法はこれらの変化の可能性を無視している。
自然言語におけるcf-XAI提示のための新しいアプローチ(Natural-XAI)を提案する。
論文 参考訳(メタデータ) (2023-10-03T12:48:57Z) - DiaASQ : A Benchmark of Conversational Aspect-based Sentiment Quadruple
Analysis [84.80347062834517]
本稿では,対話における目標視差感の4倍を検出することを目的としたDiaASQを紹介する。
中国語と英語の両方で大規模なDiaASQデータセットを手作業で構築する。
我々は、タスクをベンチマークするニューラルネットワークを開発し、エンドツーエンドの4倍の予測を効果的に実行する。
論文 参考訳(メタデータ) (2022-11-10T17:18:20Z) - On the Evaluation of the Plausibility and Faithfulness of Sentiment
Analysis Explanations [2.071923272918415]
2つの角度からSAモデルの説明可能性を評価するために,異なる指標と手法を提案する。
まず,抽出した「有理数」の強度を評価し,予測結果の忠実な説明を行う。
第2に、自家製のデータセット上で、ExAI法と人的判断の一致を計測する。
論文 参考訳(メタデータ) (2022-10-13T11:29:17Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Aspect Sentiment Quad Prediction as Paraphrase Generation [53.33072918744124]
Aspect Sentiment Quad Prediction (ASQP)タスクを導入し、与えられた意見文に対するクワッド内のすべての感情要素を共同で検出することを目的とした。
本稿では,ASQP タスクをパラフレーズ生成プロセスにキャストする新しいtextscParaphrase モデリングパラダイムを提案する。
一方、感情要素のセマンティクスは、自然言語形式でそれらを生成する学習によって完全に活用することができる。
論文 参考訳(メタデータ) (2021-10-02T12:57:27Z) - Generative Language-Grounded Policy in Vision-and-Language Navigation
with Bayes' Rule [80.0853069632445]
視覚言語ナビゲーション(VLN)は、エージェントが現実的な3D環境に具体化され、目標ノードに到達するための指示に従うタスクである。
本稿では,言語モデルを用いて可能なすべての命令の分布を計算する生成言語基底ポリシーの設計と検討を行う。
実験では,提案手法がRoom-2-Room (R2R) とRoom-4-Room (R4R) データセット,特に未確認環境において差別的アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-16T16:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。