論文の概要: FunnyBirds: A Synthetic Vision Dataset for a Part-Based Analysis of
Explainable AI Methods
- arxiv url: http://arxiv.org/abs/2308.06248v1
- Date: Fri, 11 Aug 2023 17:29:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 13:14:46.761390
- Title: FunnyBirds: A Synthetic Vision Dataset for a Part-Based Analysis of
Explainable AI Methods
- Title(参考訳): FunnyBirds: 説明可能なAIメソッドのパートベース分析のための合成ビジョンデータセット
- Authors: Robin Hesse, Simone Schaub-Meyer, Stefan Roth
- Abstract要約: XAIは本質的に、根底的な説明を欠いているため、その自動評価は未解決の問題である。
本稿では,FunnyBirdsという新しい合成視覚データセットを提案する。
我々のツールを用いて、24種類のニューラルモデルとXAI手法の組み合わせの結果を報告する。
- 参考スコア(独自算出の注目度): 15.073405675079558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of explainable artificial intelligence (XAI) aims to uncover the
inner workings of complex deep neural models. While being crucial for
safety-critical domains, XAI inherently lacks ground-truth explanations, making
its automatic evaluation an unsolved problem. We address this challenge by
proposing a novel synthetic vision dataset, named FunnyBirds, and accompanying
automatic evaluation protocols. Our dataset allows performing semantically
meaningful image interventions, e.g., removing individual object parts, which
has three important implications. First, it enables analyzing explanations on a
part level, which is closer to human comprehension than existing methods that
evaluate on a pixel level. Second, by comparing the model output for inputs
with removed parts, we can estimate ground-truth part importances that should
be reflected in the explanations. Third, by mapping individual explanations
into a common space of part importances, we can analyze a variety of different
explanation types in a single common framework. Using our tools, we report
results for 24 different combinations of neural models and XAI methods,
demonstrating the strengths and weaknesses of the assessed methods in a fully
automatic and systematic manner.
- Abstract(参考訳): 説明可能な人工知能(XAI)の分野は、複雑なディープニューラルネットワークの内部動作を明らかにすることを目的としている。
安全上重要な領域では不可欠であるが、XAIは本質的に地道的な説明を欠いているため、自動評価は未解決の問題となっている。
我々は、FunnyBirdsという新しい合成視覚データセットを提案し、自動評価プロトコルを伴ってこの問題に対処する。
私たちのデータセットは、意味的に意味のあるイメージ介入、例えば、個々のオブジェクト部分の削除を可能にします。
まず、ピクセルレベルで評価する既存の方法よりも人間の理解に近い部分レベルの説明を分析することができる。
第二に、入力のモデル出力と取り除いた部分を比較することで、説明に反映すべき地道部分の重要性を推定できる。
第三に、個々の説明を重要な部分の共通空間にマッピングすることで、単一の共通フレームワークで様々な異なる説明タイプを解析できる。
提案ツールを用いて,24種類のニューラルモデルとXAI手法の組み合わせの結果を報告し,評価手法の強みと弱さを,完全に自動的かつ系統的に示す。
関連論文リスト
- Towards Symbolic XAI -- Explanation Through Human Understandable Logical Relationships Between Features [19.15360328688008]
本稿では,入力特徴間の論理的関係を表すシンボリッククエリに関連性を持つ,シンボリックXAIというフレームワークを提案する。
このフレームワークは、ユーザーによるカスタマイズと人間可読性の両方に柔軟性のある、モデルの意思決定プロセスを理解する。
論文 参考訳(メタデータ) (2024-08-30T10:52:18Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Be Careful When Evaluating Explanations Regarding Ground Truth [11.340743580750642]
地上の真実に関する画像の説明を評価することは、主に説明方法自体よりも、検討中のモデルの品質を評価する。
本稿では、説明システムと整合するシステムの相違性を評価するために、$textitjointly$のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-08T16:39:13Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Explainable, Domain-Adaptive, and Federated Artificial Intelligence in
Medicine [5.126042819606137]
我々は、AIによる医療意思決定における特定の課題に対処する3つの主要な方法論的アプローチに焦点を当てる。
ドメイン適応と転送学習により、AIモデルをトレーニングし、複数のドメインにわたって適用することができる。
フェデレーテッド・ラーニングは、機密性の高い個人情報を漏らさずに大規模なモデルを学習することを可能にする。
論文 参考訳(メタデータ) (2022-11-17T03:32:00Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - What Do You See? Evaluation of Explainable Artificial Intelligence (XAI)
Interpretability through Neural Backdoors [15.211935029680879]
ディープニューラルネットワークが入力を予測する方法を理解するために、説明可能なAI(XAI)手法が提案されている。
現在の評価手法は、人間からの主観的な入力を必要とするか、あるいは自動評価を伴う高い計算コストを必要とする。
本稿では,不正分類の原因となる悪意のある機能を隠蔽したバックドアトリガーパターンを提案する。
論文 参考訳(メタデータ) (2020-09-22T15:53:19Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。