論文の概要: xAI-CV: An Overview of Explainable Artificial Intelligence in Computer Vision
- arxiv url: http://arxiv.org/abs/2509.18913v1
- Date: Tue, 23 Sep 2025 12:33:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.831508
- Title: xAI-CV: An Overview of Explainable Artificial Intelligence in Computer Vision
- Title(参考訳): xAI-CV:コンピュータビジョンにおける説明可能な人工知能の概要
- Authors: Nguyen Van Tu, Pham Nguyen Hai Long, Vo Hoai Viet,
- Abstract要約: 本稿では,視覚認知タスクにおけるxAIの4つの代表的なアプローチについて検討する。
私たちは、その基盤となるメカニズム、強度、限界、および評価指標を分析します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has become the de facto standard and dominant paradigm in image analysis tasks, achieving state-of-the-art performance. However, this approach often results in "black-box" models, whose decision-making processes are difficult to interpret, raising concerns about reliability in critical applications. To address this challenge and provide human a method to understand how AI model process and make decision, the field of xAI has emerged. This paper surveys four representative approaches in xAI for visual perception tasks: (i) Saliency Maps, (ii) Concept Bottleneck Models (CBM), (iii) Prototype-based methods, and (iv) Hybrid approaches. We analyze their underlying mechanisms, strengths and limitations, as well as evaluation metrics, thereby providing a comprehensive overview to guide future research and applications.
- Abstract(参考訳): ディープラーニングは、画像解析タスクにおけるデファクトスタンダードであり、支配的なパラダイムとなり、最先端のパフォーマンスを実現している。
しかし、このアプローチは多くの場合、意思決定プロセスの解釈が困難である"ブラックボックス"モデルをもたらし、重要なアプリケーションの信頼性に関する懸念を提起する。
この課題に対処し、AIがどのように処理し、意思決定するかを理解する方法を人間に提供するために、xAIの分野が出現した。
本稿では,視覚認知タスクにおけるxAIの4つの代表的なアプローチについて調査する。
(i)空白地図
(II)コンセプト・ボトルネック・モデル(CBM)
三 原型に基づく方法、及び
(4)ハイブリッドアプローチ。
我々は,その基盤となるメカニズム,強度,限界,および評価指標を分析し,今後の研究や応用の指針となる包括的概要を提供する。
関連論文リスト
- Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - OpenHEXAI: An Open-Source Framework for Human-Centered Evaluation of Explainable Machine Learning [43.87507227859493]
本稿では,XAI 手法を人間中心で評価するオープンソースフレームワーク OpenHEXAI について述べる。
OpenHEAXIは、XAIメソッドの人間中心ベンチマークを促進するための、最初の大規模なインフラ構築である。
論文 参考訳(メタデータ) (2024-02-20T22:17:59Z) - Unveiling the Unseen: A Comprehensive Survey on Explainable Anomaly Detection in Images and Videos [49.07140708026425]
画像やビデオを含む視覚データの異常検出とローカライゼーションは、機械学習や現実世界のアプリケーションにおいて不可欠である。
本稿では,説明可能な2次元視覚異常検出(X-VAD)に焦点を当てた初の包括的調査を行う。
本稿では,その基礎技術によって分類された説明可能な手法の文献レビューを行う。
我々は、将来的な方向性と、説明品質の定量化を含むオープンな問題について議論する。
論文 参考訳(メタデータ) (2023-02-13T20:17:41Z) - Attribution-based XAI Methods in Computer Vision: A Review [5.076419064097734]
コンピュータビジョンにおける属性に基づくXAI手法の総合的な調査を行う。
我々は、XAIの勾配に基づく、摂動に基づく、および対照的な手法に関する既存の文献をレビューする。
論文 参考訳(メタデータ) (2022-11-27T05:56:36Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Image Quality Assessment in the Modern Age [53.19271326110551]
本チュートリアルは、画像品質評価(IQA)の基礎的理論、方法論、現状の進歩を聴衆に提供する。
まず,視覚刺激を適切に選択する方法に着目し,主観的品質評価手法を再考する。
手書きのエンジニアリングと(深い)学習ベースの手法の両方をカバーします。
論文 参考訳(メタデータ) (2021-10-19T02:38:46Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - VitrAI -- Applying Explainable AI in the Real World [0.0]
VitrAIは、3つの実生活シナリオの文脈で4つの異なるXAIアルゴリズムを均一に実証することを目的としているWebベースのサービスです。
この研究は、XAIメソッドを採用する際の現実的な障害を明らかにし、上記のシナリオでどのように異なるアプローチがうまく機能するかを定性的に見積もる。
論文 参考訳(メタデータ) (2021-02-12T13:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。