論文の概要: Representational Difference Explanations
- arxiv url: http://arxiv.org/abs/2505.23917v1
- Date: Thu, 29 May 2025 18:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.615548
- Title: Representational Difference Explanations
- Title(参考訳): 表現差説明
- Authors: Neehar Kondapaneni, Oisin Mac Aodha, Pietro Perona,
- Abstract要約: 本稿では,Representational differences Explanations (RDX) と呼ぶ手法を検証する。
RDXはImageNetとiNaturalistデータセットの挑戦的なサブセットの最先端モデルに適用される。
- 参考スコア(独自算出の注目度): 27.72186215265676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method for discovering and visualizing the differences between two learned representations, enabling more direct and interpretable model comparisons. We validate our method, which we call Representational Differences Explanations (RDX), by using it to compare models with known conceptual differences and demonstrate that it recovers meaningful distinctions where existing explainable AI (XAI) techniques fail. Applied to state-of-the-art models on challenging subsets of the ImageNet and iNaturalist datasets, RDX reveals both insightful representational differences and subtle patterns in the data. Although comparison is a cornerstone of scientific analysis, current tools in machine learning, namely post hoc XAI methods, struggle to support model comparison effectively. Our work addresses this gap by introducing an effective and explainable tool for contrasting model representations.
- Abstract(参考訳): 本稿では,2つの学習された表現の違いを発見・可視化し,より直接的かつ解釈可能なモデル比較を可能にする手法を提案する。
我々は,Representational differences Explanations (RDX) と呼ぶ手法を検証するとともに,モデルと既知の概念的差異を比較し,既存の説明可能なAI(XAI)技術が失敗する有意義な区別を回復することを示す。
ImageNetとiNaturalistデータセットの挑戦的なサブセットに関する最先端モデルに適用されるRDXは、洞察に富んだ表現上の違いと、データの微妙なパターンの両方を明らかにしている。
比較は科学的分析の基盤となっているが、機械学習の現在のツール、すなわちポストホックXAIメソッドは、モデル比較を効果的にサポートするのに苦労している。
我々の研究は、モデル表現を対比するための効果的で説明可能なツールを導入することで、このギャップに対処する。
関連論文リスト
- A Comparative Study of Explainable AI Methods: Model-Agnostic vs. Model-Specific Approaches [0.0]
LIME と SHAP が Grad-CAM と Guided Backpropagation とどのように異なるのかを ResNet50 予測の解釈時に検討する。
それぞれの手法が、モデル決定プロセスの異なる側面を明らかにすることに気づきました。
私の分析では、モデル解釈容易性には"すべてにフィットする"ソリューションがないことが分かりました。
論文 参考訳(メタデータ) (2025-04-05T20:13:20Z) - MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Dynamic Interpretability for Model Comparison via Decision Rules [0.8099700053397276]
本稿では,機械学習モデルの違いを理解し説明することの課題に対処する。
ルールベースの説明を生成するモデルに依存しないDeltaXplainerを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:42:49Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。