論文の概要: Explainable Evidential Clustering
- arxiv url: http://arxiv.org/abs/2507.12192v2
- Date: Wed, 06 Aug 2025 22:24:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 23:24:00.915778
- Title: Explainable Evidential Clustering
- Title(参考訳): 説明可能なエビデンシャルクラスタリング
- Authors: Victor F. Lopes de Souza, Karima Bakhti, Sofiane Ramdani, Denis Mottet, Abdelhak Imoussaten,
- Abstract要約: 実世界のデータは、しばしば不完全であり、不確かさと不正確さが特徴であり、従来の手法ではうまく扱えない。
Dempster-Shafer理論に基づくエビデンシャルクラスタリングは、これらの課題に対処する。
本稿では,解釈可能かつ慎重な決定木説明を提供するIEMM (Iterative Evidential Mistake Minimization) アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised classification is a fundamental machine learning problem. Real-world data often contain imperfections, characterized by uncertainty and imprecision, which are not well handled by traditional methods. Evidential clustering, based on Dempster-Shafer theory, addresses these challenges. This paper explores the underexplored problem of explaining evidential clustering results, which is crucial for high-stakes domains such as healthcare. Our analysis shows that, in the general case, representativity is a necessary and sufficient condition for decision trees to serve as abductive explainers. Building on the concept of representativity, we generalize this idea to accommodate partial labeling through utility functions. These functions enable the representation of "tolerable" mistakes, leading to the definition of evidential mistakeness as explanation cost and the construction of explainers tailored to evidential classifiers. Finally, we propose the Iterative Evidential Mistake Minimization (IEMM) algorithm, which provides interpretable and cautious decision tree explanations for evidential clustering functions. We validate the proposed algorithm on synthetic and real-world data. Taking into account the decision-maker's preferences, we were able to provide an explanation that was satisfactory up to 93% of the time.
- Abstract(参考訳): 教師なし分類は基本的な機械学習問題である。
実世界のデータは、しばしば不完全であり、不確かさと不正確さが特徴であり、従来の手法ではうまく扱えない。
Dempster-Shafer理論に基づくエビデンシャルクラスタリングは、これらの課題に対処する。
本稿では,医療などのハイテイク領域において重要な,明らかなクラスタリングの結果を説明するという未解決の問題について考察する。
解析の結果,一般的な場合において,決定木が帰納的説明役として機能するためには,表現力は必要かつ十分な条件であることが示唆された。
表現性の概念に基づいてこのアイデアを一般化し、ユーティリティ関数による部分的なラベリングに対応する。
これらの関数は「耐え難い」誤りの表現を可能にし、明細誤りを説明コストとして定義し、明細分類器に適した説明器を構築する。
最後に,明示的なクラスタリング機能に対して,解釈可能かつ慎重な決定木説明を提供する,反復的証拠ミステイク最小化(IEMM)アルゴリズムを提案する。
提案アルゴリズムは,合成および実世界のデータに基づいて検証する。
意思決定者の好みを考慮して、最大93%の時間で満足な説明ができるようになりました。
関連論文リスト
- I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - On the Complexity of Global Necessary Reasons to Explain Classification [10.007636884318801]
説明可能なAIは近年,AIシステムによる決定や予測の背後にある理由を理解することが,採用の成功に不可欠であることから,大きな注目を集めている。
本稿では,グローバルな説明に焦点をあて,分類器が特定のクラスをジェネリックインスタンスに割り当てるために必要な最小限の条件で分類を説明する。
論文 参考訳(メタデータ) (2025-01-12T10:25:14Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - GLANCE: Global Actions in a Nutshell for Counterfactual Explainability [10.25011737760687]
2つのアルゴリズムからなる多目的かつ適応的なフレームワークであるGLANCEを紹介する。
C-GLANCEは、特徴空間と反現実的アクションの空間の両方を考慮するクラスタリングアプローチを採用している。
T-GLANCEは柔軟性を高めるための追加機能を提供する。
論文 参考訳(メタデータ) (2024-05-29T09:24:25Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - From Robustness to Explainability and Back Again [3.7950144463212134]
本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
提案アルゴリズムは、代わりに複数のクエリに答えることによって説明を計算し、そのようなクエリの数は、機能数に対して最も線形であるように頑健である。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。