論文の概要: Beyond single-model XAI: aggregating multi-model explanations for enhanced trustworthiness
- arxiv url: http://arxiv.org/abs/2510.11164v1
- Date: Mon, 13 Oct 2025 08:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.278482
- Title: Beyond single-model XAI: aggregating multi-model explanations for enhanced trustworthiness
- Title(参考訳): シングルモデルXAIを超えて:信頼性向上のための多モデル説明を集約する
- Authors: Ilaria Vascotto, Alex Rodriguez, Alessandro Bonaita, Luca Bortolussi,
- Abstract要約: 本稿では,複数のモデルから抽出した特徴量集約を用いて,ロバスト性の役割について検討する。
予備的な結果は、複数のモデルの予測能力を活用しながら、アプリケーションの信頼性を高める可能性を示している。
- 参考スコア(独自算出の注目度): 43.25173443756643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Artificial Intelligence (AI) models in real-world and high-risk applications has intensified the discussion about their trustworthiness and ethical usage, from both a technical and a legislative perspective. The field of eXplainable Artificial Intelligence (XAI) addresses this challenge by proposing explanations that bring to light the decision-making processes of complex black-box models. Despite being an essential property, the robustness of explanations is often an overlooked aspect during development: only robust explanation methods can increase the trust in the system as a whole. This paper investigates the role of robustness through the usage of a feature importance aggregation derived from multiple models ($k$-nearest neighbours, random forest and neural networks). Preliminary results showcase the potential in increasing the trustworthiness of the application, while leveraging multiple model's predictive power.
- Abstract(参考訳): リアルタイムおよび高リスクアプリケーションにおける人工知能(AI)モデルの使用は、技術的および立法的観点から、彼らの信頼性と倫理的使用に関する議論を激化させている。
eXplainable Artificial Intelligence(XAI)の分野は、複雑なブラックボックスモデルの意思決定プロセスに光を当てる説明を提供することによって、この問題に対処している。
重要な性質であるにもかかわらず、説明の堅牢性は、しばしば開発中に見過ごされる側面である:堅牢な説明方法だけがシステム全体の信頼を高めることができる。
本稿では,複数のモデル(k$-nearest neighbors, random forest, neural network)から抽出した特徴重要集約の利用によるロバストネスの役割について検討する。
予備的な結果は、複数のモデルの予測能力を活用しながら、アプリケーションの信頼性を高める可能性を示している。
関連論文リスト
- DixitWorld: Evaluating Multimodal Abductive Reasoning in Vision-Language Models with Multi-Agent Dixit Gameplay [50.31585196187091]
マルチモーダルな帰納的推論を分解するための総合評価スイートであるDixitWorldを紹介した。
DIXITWORLDは,仮説生成と仮説選択を評価する動的マルチエージェント環境であるDixitArenaという,2つのコアコンポーネントを備えている。
DixitArenaの結果は、異なる、役割に依存した行動を明らかにしている。
論文 参考訳(メタデータ) (2025-10-11T08:48:48Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
本稿ではTaylor拡張に基づく新規な帰属説明器であるT-Explainerを紹介する。
T-Explainerは、局所的精度や一貫性などの望ましい特性を提供する。
我々は、T-Explainerを総合的なXAIフレームワークに変えることで、説明を評価し視覚化するためのツールをいくつか提供します。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。