論文の概要: Formal Abductive Latent Explanations for Prototype-Based Networks
- arxiv url: http://arxiv.org/abs/2511.16588v1
- Date: Thu, 20 Nov 2025 17:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.767218
- Title: Formal Abductive Latent Explanations for Prototype-Based Networks
- Title(参考訳): プロトタイプネットワークのための形式的帰納的記述法
- Authors: Jules Soria, Zakaria Chihani, Julien Girard-Satabin, Alban Grastien, Romain Xu-Darme, Daniela Cancila,
- Abstract要約: ケースベースの推論ネットワークは、プロトタイプと呼ばれるトレーニングサンプルの入力とプロトタイプの部分の類似性に基づいて予測を行う。
このような説明は時に誤解を招くものであり、安全クリティカルな文脈での有用性を損なうものであることを示す。
本稿では, 予測を暗示するインスタンスの中間表現について, 十分な条件を表現する形式として, ALE(Abductive Latent Explanations)を提案する。
- 参考スコア(独自算出の注目度): 7.001970497421476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Case-based reasoning networks are machine-learning models that make predictions based on similarity between the input and prototypical parts of training samples, called prototypes. Such models are able to explain each decision by pointing to the prototypes that contributed the most to the final outcome. As the explanation is a core part of the prediction, they are often qualified as ``interpretable by design". While promising, we show that such explanations are sometimes misleading, which hampers their usefulness in safety-critical contexts. In particular, several instances may lead to different predictions and yet have the same explanation. Drawing inspiration from the field of formal eXplainable AI (FXAI), we propose Abductive Latent Explanations (ALEs), a formalism to express sufficient conditions on the intermediate (latent) representation of the instance that imply the prediction. Our approach combines the inherent interpretability of case-based reasoning models and the guarantees provided by formal XAI. We propose a solver-free and scalable algorithm for generating ALEs based on three distinct paradigms, compare them, and present the feasibility of our approach on diverse datasets for both standard and fine-grained image classification. The associated code can be found at https://github.com/julsoria/ale
- Abstract(参考訳): ケースベース推論ネットワーク(英: Case-based reasoning network)は、プロトタイプと呼ばれるトレーニングサンプルの入力部分とプロトタイプ部分の類似性に基づいて予測を行う機械学習モデルである。
このようなモデルは、最終結果に最も貢献したプロトタイプを指して、それぞれの決定を説明することができる。
説明は予測の中核部分であるため、しばしば「設計によって解釈可能」と評価される。
有望である一方で、このような説明は時に誤解を招くものであり、安全クリティカルな文脈での有用性を損なうものであることを示す。
特に、いくつかの例は異なる予測を導きうるが、同じ説明を持っている。
フォーマルなeXplainable AI(FXAI)の分野からインスピレーションを得て,予測を暗示するインスタンスの中間(ラテント)表現に十分な条件を表現する形式であるALE(Abductive Latent Explanations)を提案する。
提案手法は,ケースベース推論モデルの本質的解釈可能性と,形式的XAIによる保証を組み合わせる。
本稿では,ALEを3つの異なるパラダイムに基づいて生成する解法フリーでスケーラブルなアルゴリズムを提案する。
関連するコードはhttps://github.com/julsoria/ale.comで確認できる。
関連論文リスト
- From Black-box to Causal-box: Towards Building More Interpretable Models [57.23201263629627]
本稿では, 因果解釈可能性の概念を導入し, 特定のモデルのクラスから対実的クエリを評価できるときの形式化について述べる。
我々は、与えられたモデルアーキテクチャが与えられた偽物クエリをサポートするかどうかを決定する完全なグラフィカルな基準を導出する。
論文 参考訳(メタデータ) (2025-10-24T20:03:18Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Learning to Select Prototypical Parts for Interpretable Sequential Data
Modeling [7.376829794171344]
本稿では,原型概念の線形結合を用いた自己説明選択モデル(SESM)を提案する。
より良い解釈可能性を得るために,多様性,安定性,局所性など,複数の制約をトレーニング対象として設計する。
論文 参考訳(メタデータ) (2022-12-07T01:42:47Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。