論文の概要: A Multimodal XAI Framework for Trustworthy CNNs and Bias Detection in Deep Representation Learning
- arxiv url: http://arxiv.org/abs/2510.12957v1
- Date: Tue, 14 Oct 2025 20:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.404741
- Title: A Multimodal XAI Framework for Trustworthy CNNs and Bias Detection in Deep Representation Learning
- Title(参考訳): 深層表現学習における信頼度の高いCNNとバイアス検出のためのマルチモーダルXAIフレームワーク
- Authors: Noor Islam S. Mohammad,
- Abstract要約: 本稿では,注目機能融合,Grad-CAM++に基づく局所的な説明,バイアス検出と緩和のためのReveal-to-Reviseフィードバックループを統一する新しいフレームワークを提案する。
分類精度は93.2%,F1スコア91.6%,説明忠実度78.1%(IoU-XAI)である。
私たちの仕事は、パフォーマンス、透明性、公正性のギャップを埋め、センシティブなドメインにおける信頼できるAIの実践的な経路を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard benchmark datasets, such as MNIST, often fail to expose latent biases and multimodal feature complexities, limiting the trustworthiness of deep neural networks in high-stakes applications. We propose a novel multimodal Explainable AI (XAI) framework that unifies attention-augmented feature fusion, Grad-CAM++-based local explanations, and a Reveal-to-Revise feedback loop for bias detection and mitigation. Evaluated on multimodal extensions of MNIST, our approach achieves 93.2% classification accuracy, 91.6% F1-score, and 78.1% explanation fidelity (IoU-XAI), outperforming unimodal and non-explainable baselines. Ablation studies demonstrate that integrating interpretability with bias-aware learning enhances robustness and human alignment. Our work bridges the gap between performance, transparency, and fairness, highlighting a practical pathway for trustworthy AI in sensitive domains.
- Abstract(参考訳): MNISTのような標準ベンチマークデータセットは、遅延バイアスやマルチモーダルな特徴の複雑さを露呈しないことが多く、高度なアプリケーションにおけるディープニューラルネットワークの信頼性を制限している。
本稿では,注目機能融合とGrad-CAM++に基づく局所的説明と,バイアス検出と緩和のためのReveal-to-Reviseフィードバックループを統一する,新しいマルチモーダル説明可能なAI(XAI)フレームワークを提案する。
MNISTのマルチモーダル拡張を評価した結果, 分類精度93.2%, F1スコア91.6%, 説明忠実度78.1%を達成し, 単調で説明不能なベースラインを上回った。
アブレーション研究は、バイアス認識学習と解釈可能性を統合することで、堅牢性と人間のアライメントが促進されることを示した。
私たちの仕事は、パフォーマンス、透明性、公正性のギャップを埋め、センシティブなドメインにおける信頼できるAIの実践的な経路を強調します。
関連論文リスト
- Multi-layer Cross-Attention is Provably Optimal for Multi-modal In-context Learning [7.67220299822976]
本稿では,マルチモーダル学習を数学的に学習可能なフレームワークを導入し,変換器のようなアーキテクチャがベイズ最適性能をコンテキスト内で回復する方法について検討する。
本研究は,マルチモーダル分布において,文脈内学習における奥行きの利点を強調し,クロスアテンションの有効性を確立することを目的とする。
論文 参考訳(メタデータ) (2026-02-04T18:57:30Z) - From Sparse Decisions to Dense Reasoning: A Multi-attribute Trajectory Paradigm for Multimodal Moderation [59.27094165576015]
疎度な意思決定から高密度な推論トレースへ移行する新しい学習パラダイム(UniMod)を提案する。
モノリシックな意思決定タスクを多次元境界学習プロセスに再構成し,エビデンス,モダリティ評価,リスクマッピング,政策決定,応答生成を含む構造化軌道を構築する。
タスク固有のパラメータを分離し、トレーニングダイナミクスを再バランスさせ、マルチタスク学習における多様な目的間の干渉を効果的に解消する、特別な最適化戦略を導入する。
論文 参考訳(メタデータ) (2026-01-28T09:29:40Z) - Enhancing the QA Model through a Multi-domain Debiasing Framework [1.7802147489386633]
本研究では,SQuAD(Stanford Question Answering dataset) v1.1とAddSentとAddOneSentの対立データセットを用いたELECTRA小モデルの評価を行った。
我々は,知識蒸留,デバイアス技術,ドメイン拡張を取り入れたマルチドメインデバイアスフレームワークを開発した。
論文 参考訳(メタデータ) (2026-01-01T08:39:07Z) - Multimodal Detection of Fake Reviews using BERT and ResNet-50 [0.0]
BERTでエンコードされたテキスト機能とResNet-50を用いて抽出された視覚機能を統合した,堅牢なマルチモーダルフェイクレビュー検出フレームワークを提案する。
実験結果から,マルチモーダルモデルは単調なベースラインよりも優れており,F1スコアが0.934であることが確認された。
本研究は,デジタル信頼の保護におけるマルチモーダル学習の重要性を実証し,コンテンツモデレーションにスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T01:24:53Z) - Multiscale Adaptive Conflict-Balancing Model For Multimedia Deepfake Detection [4.849608823153888]
マルチモーダル検出法は、モダリティ間の不均衡学習によって制限されている。
本稿では,モダリティの対立を緩和し,無視を改善するために,MACB-DF(Audio-Visual Joint Learning Method)を提案する。
提案手法は,従来のベストパフォーマンス手法に比べて,ACCスコアの8.0%と7.7%の絶対的な改善を達成し,優れたクロスデータセット一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-19T11:01:49Z) - MMIE: Massive Multimodal Interleaved Comprehension Benchmark for Large Vision-Language Models [71.36392373876505]
我々は、LVLM(Large Vision-Language Models)において、インターリーブされたマルチモーダル理解と生成を評価するための大規模ベンチマークであるMMIEを紹介する。
MMIEは、数学、コーディング、物理学、文学、健康、芸術を含む3つのカテゴリ、12のフィールド、102のサブフィールドにまたがる20Kの厳密にキュレートされたマルチモーダルクエリで構成されている。
インターリーブされたインプットとアウトプットの両方をサポートし、多様な能力を評価するために、複数選択とオープンな質問フォーマットの混合を提供する。
論文 参考訳(メタデータ) (2024-10-14T04:15:00Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Solving the enigma: Enhancing faithfulness and comprehensibility in explanations of deep networks [3.9584068556746246]
本稿では,説明の正確性と理解性の両方を最大化することに集中して,ディープネットワークの説明可能性を高めるために設計された新しいフレームワークを提案する。
我々のフレームワークは、複数の確立されたXAI手法の出力を統合し、"説明(explanation)"と呼ばれる非線形ニューラルネットワークモデルを活用し、統一的で最適な説明を構築する。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。