論文の概要: A Multimodal XAI Framework for Trustworthy CNNs and Bias Detection in Deep Representation Learning
- arxiv url: http://arxiv.org/abs/2510.12957v1
- Date: Tue, 14 Oct 2025 20:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.404741
- Title: A Multimodal XAI Framework for Trustworthy CNNs and Bias Detection in Deep Representation Learning
- Title(参考訳): 深層表現学習における信頼度の高いCNNとバイアス検出のためのマルチモーダルXAIフレームワーク
- Authors: Noor Islam S. Mohammad,
- Abstract要約: 本稿では,注目機能融合,Grad-CAM++に基づく局所的な説明,バイアス検出と緩和のためのReveal-to-Reviseフィードバックループを統一する新しいフレームワークを提案する。
分類精度は93.2%,F1スコア91.6%,説明忠実度78.1%(IoU-XAI)である。
私たちの仕事は、パフォーマンス、透明性、公正性のギャップを埋め、センシティブなドメインにおける信頼できるAIの実践的な経路を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard benchmark datasets, such as MNIST, often fail to expose latent biases and multimodal feature complexities, limiting the trustworthiness of deep neural networks in high-stakes applications. We propose a novel multimodal Explainable AI (XAI) framework that unifies attention-augmented feature fusion, Grad-CAM++-based local explanations, and a Reveal-to-Revise feedback loop for bias detection and mitigation. Evaluated on multimodal extensions of MNIST, our approach achieves 93.2% classification accuracy, 91.6% F1-score, and 78.1% explanation fidelity (IoU-XAI), outperforming unimodal and non-explainable baselines. Ablation studies demonstrate that integrating interpretability with bias-aware learning enhances robustness and human alignment. Our work bridges the gap between performance, transparency, and fairness, highlighting a practical pathway for trustworthy AI in sensitive domains.
- Abstract(参考訳): MNISTのような標準ベンチマークデータセットは、遅延バイアスやマルチモーダルな特徴の複雑さを露呈しないことが多く、高度なアプリケーションにおけるディープニューラルネットワークの信頼性を制限している。
本稿では,注目機能融合とGrad-CAM++に基づく局所的説明と,バイアス検出と緩和のためのReveal-to-Reviseフィードバックループを統一する,新しいマルチモーダル説明可能なAI(XAI)フレームワークを提案する。
MNISTのマルチモーダル拡張を評価した結果, 分類精度93.2%, F1スコア91.6%, 説明忠実度78.1%を達成し, 単調で説明不能なベースラインを上回った。
アブレーション研究は、バイアス認識学習と解釈可能性を統合することで、堅牢性と人間のアライメントが促進されることを示した。
私たちの仕事は、パフォーマンス、透明性、公正性のギャップを埋め、センシティブなドメインにおける信頼できるAIの実践的な経路を強調します。
関連論文リスト
- Multiscale Adaptive Conflict-Balancing Model For Multimedia Deepfake Detection [4.849608823153888]
マルチモーダル検出法は、モダリティ間の不均衡学習によって制限されている。
本稿では,モダリティの対立を緩和し,無視を改善するために,MACB-DF(Audio-Visual Joint Learning Method)を提案する。
提案手法は,従来のベストパフォーマンス手法に比べて,ACCスコアの8.0%と7.7%の絶対的な改善を達成し,優れたクロスデータセット一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-19T11:01:49Z) - MMIE: Massive Multimodal Interleaved Comprehension Benchmark for Large Vision-Language Models [71.36392373876505]
我々は、LVLM(Large Vision-Language Models)において、インターリーブされたマルチモーダル理解と生成を評価するための大規模ベンチマークであるMMIEを紹介する。
MMIEは、数学、コーディング、物理学、文学、健康、芸術を含む3つのカテゴリ、12のフィールド、102のサブフィールドにまたがる20Kの厳密にキュレートされたマルチモーダルクエリで構成されている。
インターリーブされたインプットとアウトプットの両方をサポートし、多様な能力を評価するために、複数選択とオープンな質問フォーマットの混合を提供する。
論文 参考訳(メタデータ) (2024-10-14T04:15:00Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Solving the enigma: Enhancing faithfulness and comprehensibility in explanations of deep networks [3.9584068556746246]
本稿では,説明の正確性と理解性の両方を最大化することに集中して,ディープネットワークの説明可能性を高めるために設計された新しいフレームワークを提案する。
我々のフレームワークは、複数の確立されたXAI手法の出力を統合し、"説明(explanation)"と呼ばれる非線形ニューラルネットワークモデルを活用し、統一的で最適な説明を構築する。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。