論文の概要: A Quantitative Evaluation Framework for Explainable AI in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2510.24414v3
- Date: Tue, 04 Nov 2025 11:54:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 14:27:17.363917
- Title: A Quantitative Evaluation Framework for Explainable AI in Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションにおける説明可能なAIの定量的評価フレームワーク
- Authors: Reem Hammoud, Abdul Karim Gizzini, Ali J. Ghandour,
- Abstract要約: 本研究は、意味的セグメンテーションにおける説明可能なAI(XAI)を評価するための総合的な定量的評価フレームワークを紹介する。
このフレームワークは、ピクセルレベルの評価戦略と慎重に設計されたメトリクスを統合して、きめ細かい解釈可能性の洞察を得る。
これらの知見は、透明で信頼性があり、説明可能なセマンティックセグメンテーションモデルの開発を促進する。
- 参考スコア(独自算出の注目度): 0.20999222360659606
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring transparency and trust in artificial intelligence (AI) models is essential as they are increasingly deployed in safety-critical and high-stakes domains. Explainable AI (XAI) has emerged as a promising approach to address this challenge; however, the rigorous evaluation of XAI methods remains vital for balancing the trade-offs between model complexity, predictive performance, and interpretability. While substantial progress has been made in evaluating XAI for classification tasks, strategies tailored to semantic segmentation remain limited. Moreover, objectively assessing XAI approaches is difficult, since qualitative visual explanations provide only preliminary insights. Such qualitative methods are inherently subjective and cannot ensure the accuracy or stability of explanations. To address these limitations, this work introduces a comprehensive quantitative evaluation framework for assessing XAI in semantic segmentation, accounting for both spatial and contextual task complexities. The framework systematically integrates pixel-level evaluation strategies with carefully designed metrics to yield fine-grained interpretability insights. Simulation results using recently adapted class activation mapping (CAM)-based XAI schemes demonstrate the efficiency, robustness, and reliability of the proposed methodology. These findings advance the development of transparent, trustworthy, and accountable semantic segmentation models.
- Abstract(参考訳): 人工知能(AI)モデルに対する透明性と信頼の確保は、安全クリティカルで高い領域にますますデプロイされているため、不可欠である。
説明可能なAI(XAI)はこの課題に対処するための有望なアプローチとして登場したが、モデル複雑性、予測性能、解釈可能性の間のトレードオフのバランスをとる上で、厳密なXAI手法の評価は依然として不可欠である。
分類タスクにおけるXAIの評価には大きな進歩があったが、セマンティックセグメンテーションに適した戦略は依然として限られている。
また、定性的な視覚的説明は予備的な洞察のみを提供するため、客観的にXAIアプローチを評価することは困難である。
このような定性的手法は本質的に主観的であり、説明の正確さや安定性を保証することはできない。
これらの制約に対処するため、この研究は、空間的・文脈的タスクの複雑さを考慮に入れながら、意味的セグメンテーションにおけるXAIを評価するための総合的な定量的評価フレームワークを導入している。
このフレームワークは、ピクセルレベルの評価戦略を慎重に設計されたメトリクスと体系的に統合し、きめ細かい解釈可能性の洞察を得る。
最近適応されたクラスアクティベーションマッピング(CAM)に基づくXAIスキームを用いたシミュレーションの結果,提案手法の効率性,堅牢性,信頼性が示された。
これらの知見は、透明で信頼性があり、説明可能なセマンティックセグメンテーションモデルの開発を促進する。
関連論文リスト
- Detecting Cybersecurity Threats by Integrating Explainable AI with SHAP Interpretability and Strategic Data Sampling [0.0]
このフレームワークは、脅威検出のためにAIをデプロイする際の3つの根本的な課題に対処する。
本手法は,計算オーバーヘッドを低減しつつ検出効率を維持する。
セキュリティ運用センターに信頼できるAIシステムをデプロイするための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2026-02-22T08:01:14Z) - Novel Category Discovery with X-Agent Attention for Open-Vocabulary Semantic Segmentation [48.806000388608005]
提案するX-Agentは,「潜時意味認識エージェント」を用いてモーダル間注意機構を編成する,革新的なOVSSフレームワークである。
X-Agentは最先端のパフォーマンスを実現し、潜伏したセマンティックサリエンシを効果的に強化する。
論文 参考訳(メタデータ) (2025-09-01T09:01:58Z) - Unifying VXAI: A Systematic Review and Framework for the Evaluation of Explainable AI [4.715895520943978]
説明可能なAI(XAI)は、モデル行動に関する人間の理解可能な説明を提供することで、この問題に対処する。
XAIメソッドの増加にもかかわらず、フィールドには標準化された評価プロトコルと適切なメトリクスに関するコンセンサスがない。
我々は、XAI(VXAI)のeValuationのための統一的なフレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-18T12:25:37Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - SEOE: A Scalable and Reliable Semantic Evaluation Framework for Open Domain Event Detection [70.23196257213829]
オープンドメインイベント検出のためのスケーラブルで信頼性の高いセマンティックレベルの評価フレームワークを提案する。
提案フレームワークはまず,現在7つの主要ドメインをカバーする564のイベントタイプを含む,スケーラブルな評価ベンチマークを構築した。
次に,大言語モデル(LLM)を自動評価エージェントとして活用し,意味的類似ラベルのきめ細かい定義を取り入れた意味的F1スコアを計算する。
論文 参考訳(メタデータ) (2025-03-05T09:37:05Z) - A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
本研究では,XAIの単一評価フレームワークについて紹介する。
数字とユーザフィードバックの両方を使って、説明が正しいか、理解しやすく、公平で、完全で、信頼できるかをチェックする。
我々は、医療、金融、農業、自動運転システムにおけるケーススタディを通じて、この枠組みの価値を示す。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。