論文の概要: Explaining What Machines See: XAI Strategies in Deep Object Detection Models
- arxiv url: http://arxiv.org/abs/2509.01991v1
- Date: Tue, 02 Sep 2025 06:16:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.923577
- Title: Explaining What Machines See: XAI Strategies in Deep Object Detection Models
- Title(参考訳): 深部物体検出モデルにおけるXAI戦略
- Authors: FatemehSadat Seyedmomeni, Mohammad Ali Keyvanrad,
- Abstract要約: 説明可能な人工知能(XAI)は、モデル決定をより透明化し、解釈可能で、人間にふさわしいものにすることを目的としている。
本稿では,オブジェクト検出モデルに特化して適用される最新技術説明可能性手法を包括的に分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep learning has achieved unprecedented success in various computer vision tasks, particularly in object detection. However, the black-box nature and high complexity of deep neural networks pose significant challenges for interpretability, especially in critical domains such as autonomous driving, medical imaging, and security systems. Explainable Artificial Intelligence (XAI) aims to address this challenge by providing tools and methods to make model decisions more transparent, interpretable, and trust-worthy for humans. This review provides a comprehensive analysis of state-of-the-art explain-ability methods specifically applied to object detection models. The paper be-gins by categorizing existing XAI techniques based on their underlying mechanisms-perturbation-based, gradient-based, backpropagation-based, and graph-based methods. Notable methods such as D-RISE, BODEM, D-CLOSE, and FSOD are discussed in detail. Furthermore, the paper investigates their applicability to various object detection architectures, including YOLO, SSD, Faster R-CNN, and EfficientDet. Statistical analysis of publication trends from 2022 to mid-2025 shows an accelerating interest in explainable object detection, indicating its increasing importance. The study also explores common datasets and evaluation metrics, and highlights the major challenges associated with model interpretability. By providing a structured taxonomy and a critical assessment of existing methods, this review aims to guide researchers and practitioners in selecting suitable explainability techniques for object detection applications and to foster the development of more interpretable AI systems.
- Abstract(参考訳): 近年、ディープラーニングは様々なコンピュータビジョンタスク、特に物体検出において前例のない成功を収めている。
しかしながら、深いニューラルネットワークのブラックボックスの性質と高い複雑さは、特に自律運転、医療画像、セキュリティシステムといった重要な領域において、解釈可能性に重大な課題をもたらす。
説明可能な人工知能(XAI)は、モデル決定をより透明性、解釈可能、信頼に値するものにするツールと方法を提供することによって、この問題に対処することを目指している。
本総説では,オブジェクト検出モデルに特化して適用される最先端の説明可能性手法を包括的に分析する。
The paper be-gins bycateization existing XAI techniques based on its underlying mechanism-perturbation-based, gradient-based, backpropagation-based, and graph-based method。
D-RISE、BODEM、D-CLOSE、FSODなどの著名な手法を詳細に論じる。
さらに, YOLO, SSD, Faster R-CNN, EfficientDetなどのオブジェクト検出アーキテクチャへの適用性についても検討した。
2022年から2025年中頃の出版トレンドの統計分析は、説明可能な物体検出への関心が加速し、その重要性が増していることを示している。
この研究では、一般的なデータセットと評価指標についても検討し、モデルの解釈可能性に関する大きな課題を強調している。
本レビューは,構造化分類学と既存手法の批判的評価を提供することにより,対象検出アプリケーションに適した説明可能性技術の選択と,より解釈可能なAIシステムの開発を促進することを目的としている。
関連論文リスト
- Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Artificial Behavior Intelligence: Technology, Challenges, and Future Directions [1.5237607855633524]
本稿では,ABI(Artificial Behavior Intelligence)の技術的枠組みを定義する。
ABIは、人間の姿勢、表情、感情、行動シーケンス、文脈的手がかりを包括的に分析し、解釈する。
ポーズ推定、顔と感情の認識、シーケンシャルな行動分析、文脈認識モデリングなど、ABIの本質的なコンポーネントについて詳述する。
論文 参考訳(メタデータ) (2025-05-06T08:45:44Z) - Deep Learning and Machine Learning -- Object Detection and Semantic Segmentation: From Theory to Applications [17.571124565519263]
オブジェクト検出とセマンティックセグメンテーションの詳細な探索を行う。
機械学習とディープラーニングの最先端を概観する。
ビッグデータ処理の解析について述べる。
論文 参考訳(メタデータ) (2024-10-21T02:10:49Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Vision Foundation Models in Remote Sensing: A Survey [6.036426846159163]
ファンデーションモデルは、前例のない精度と効率で幅広いタスクを実行することができる大規模で事前訓練されたAIモデルである。
本調査は, 遠隔センシングにおける基礎モデルの開発と応用を継続するために, 進展のパノラマと将来性のある経路を提供することによって, 研究者や実践者の資源として機能することを目的としている。
論文 参考訳(メタデータ) (2024-08-06T22:39:34Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。