論文の概要: Generative Example-Based Explanations: Bridging the Gap between Generative Modeling and Explainability
- arxiv url: http://arxiv.org/abs/2410.20890v2
- Date: Wed, 10 Sep 2025 08:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:51.940133
- Title: Generative Example-Based Explanations: Bridging the Gap between Generative Modeling and Explainability
- Title(参考訳): 生成例に基づく説明:生成モデリングと説明可能性のギャップを埋める
- Authors: Philipp Vaeth, Alexander M. Fruehwald, Benjamin Paassen, Magda Gregorova,
- Abstract要約: いくつかの手法は、画像分類器の例に基づく説明を作成するために、深層生成モデリングを活用している。
視覚的に見事な結果をもたらすにもかかわらず、これらの手法は古典的な説明可能性の文献から大きく切り離されている。
この概念とコミュニケーションのギャップは、目標と期待の誤解と誤った調整につながります。
- 参考スコア(独自算出の注目度): 40.26990075693758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, several methods have leveraged deep generative modeling to produce example-based explanations of image classifiers. Despite producing visually stunning results, these methods are largely disconnected from classical explainability literature. This conceptual and communication gap leads to misunderstandings and misalignments in goals and expectations. In this paper, we bridge this gap by proposing a probabilistic framework for example-based explanations, formally defining the example-based explanations in a probabilistic manner amenable for modeling via deep generative models while coherent with the critical characteristics and desiderata widely accepted in the explainability community. Our aim is on one hand to provide a constructive framework for the development of well-grounded generative algorithms for example-based explanations and, on the other, to facilitate communication between the generative and explainability research communities, foster rigor and transparency, and improve the quality of peer discussion and research progress in this promising direction.
- Abstract(参考訳): 近年、画像分類器の例に基づく説明を作成するために、深層生成モデリングを活用している手法がいくつかある。
視覚的に見事な結果をもたらすにもかかわらず、これらの手法は古典的な説明可能性の文献から大きく切り離されている。
この概念とコミュニケーションのギャップは、目標と期待の誤解と誤った調整につながります。
本稿では、このギャップを、例ベースの説明のための確率的枠組みを提案し、説明可能性コミュニティで広く受け入れられている批判的特徴とデシダラタを両立させながら、深い生成モデルを通してモデリング可能な確率論的説明を正式に定義することによって橋渡しする。
本研究の目的は、例えば、説明・説明・説明可能性研究コミュニティ間のコミュニケーションを容易にし、厳密さと透明性を育み、将来的な方向性でピアディスカッションや研究の質を向上させるための構築的枠組みを提供することである。
関連論文リスト
- Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - Interpreting Inflammation Prediction Model via Tag-based Cohort Explanation [5.356481722174994]
本稿では,局所的特徴重要度スコアに基づいて,データセット内のコホートを識別する新しいフレームワークを提案する。
食品ベースの炎症予測モデル上での枠組みを評価し,その枠組みがドメイン知識に合致する信頼性のある説明を生成できることを実証した。
論文 参考訳(メタデータ) (2024-10-17T23:22:59Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Advanced Conditional Variational Autoencoders (A-CVAE): Towards
interpreting open-domain conversation generation via disentangling latent
feature representation [15.742077523458995]
本稿では,メソスコピックスケールの特徴的絡み合いを伴う認知的アプローチを通じて,先行知識による生成モデルを活用することを提案する。
本稿では,潜在空間分布の解釈可能性を客観的に評価できるオープンドメイン対話のための新しい指標を提案する。
論文 参考訳(メタデータ) (2022-07-26T07:39:36Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Representations of epistemic uncertainty and awareness in data-driven
strategies [0.0]
本稿では,エージェントによる知識表現とその伝達における不確実性の理論モデルを提案する。
我々は、推論、嗜好関係、情報測度の観点から、等価な知識表現を考察する。
本稿では,データ駆動戦略における提案モデルの有効性について論じる。
論文 参考訳(メタデータ) (2021-10-21T21:18:21Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Adversarial Mutual Information for Text Generation [62.974883143784616]
本稿では,テキスト生成フレームワーク(AMI:Adversarial Mutual Information)を提案する。
AMIは、ソースとターゲット間の共同相互作用を特定することを目的とした、新しいサドル点(min-max)最適化として形成される。
AMIは、最大相互情報のより狭い範囲に導かれる可能性があることを示す。
論文 参考訳(メタデータ) (2020-06-30T19:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。