論文の概要: A Survey on Interpretability in Visual Recognition
- arxiv url: http://arxiv.org/abs/2507.11099v1
- Date: Tue, 15 Jul 2025 08:45:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.04388
- Title: A Survey on Interpretability in Visual Recognition
- Title(参考訳): 視覚認識における解釈可能性に関する調査
- Authors: Qiyang Wan, Chengzhi Gao, Ruiping Wang, Xilin Chen,
- Abstract要約: 本稿では,視覚認識モデルの解釈可能性に関する既存の研究を体系的にレビューする。
我々は人間中心の観点から手法の分類法を提案する。
我々は、この領域における既存の研究を組織化し、視覚認識モデルの解釈可能性に関する今後の研究を刺激することを目的としている。
- 参考スコア(独自算出の注目度): 28.577223694381452
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, visual recognition methods have advanced significantly, finding applications across diverse fields. While researchers seek to understand the mechanisms behind the success of these models, there is also a growing impetus to deploy them in critical areas like autonomous driving and medical diagnostics to better diagnose failures, which promotes the development of interpretability research. This paper systematically reviews existing research on the interpretability of visual recognition models and proposes a taxonomy of methods from a human-centered perspective. The proposed taxonomy categorizes interpretable recognition methods based on Intent, Object, Presentation, and Methodology, thereby establishing a systematic and coherent set of grouping criteria for these XAI methods. Additionally, we summarize the requirements for evaluation metrics and explore new opportunities enabled by recent technologies, such as large multimodal models. We aim to organize existing research in this domain and inspire future investigations into the interpretability of visual recognition models.
- Abstract(参考訳): 近年,視覚認識手法が飛躍的に進歩し,様々な分野にまたがる応用が発見されている。
研究者たちは、これらのモデルの成功の背景にあるメカニズムを理解しようとしているが、自律運転や医療診断などの重要な領域にそれらを展開し、障害の診断を良くし、解釈可能性研究の発展を促進する。
本稿では,視覚認識モデルの解釈可能性に関する既存の研究を体系的にレビューし,人間中心の観点からの手法の分類法を提案する。
提案する分類法は, インテント, オブジェクト, プレゼンテーション, 方法論に基づく解釈可能な認識手法を分類し, これらXAI手法の系統的, 一貫性のある分類基準を定式化する。
さらに,評価基準の要件を要約し,大規模マルチモーダルモデルなどの最近の技術によって実現された新たな機会を探求する。
我々は、この領域における既存の研究を組織化し、視覚認識モデルの解釈可能性に関する今後の研究を刺激することを目的としている。
関連論文リスト
- Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Biomedical Foundation Model: A Survey [84.26268124754792]
ファンデーションモデルは、広範なラベルなしデータセットから学習する大規模な事前訓練モデルである。
これらのモデルは、質問応答や視覚的理解といった様々な応用に適応することができる。
本研究は,生物医学分野における基礎モデルの可能性を探るものである。
論文 参考訳(メタデータ) (2025-03-03T22:42:00Z) - Methods and Trends in Detecting Generated Images: A Comprehensive Review [0.552480439325792]
GAN(Generative Adversarial Networks)、拡散モデル(Diffusion Models)、変分オートエンコーダ(VAEs)は、高品質なマルチメディアデータの合成を可能にしている。
これらの進歩は、敵の攻撃、非倫理的使用、社会的な危害に関する重大な懸念を引き起こした。
論文 参考訳(メタデータ) (2025-02-21T03:16:18Z) - A Survey of Models for Cognitive Diagnosis: New Developments and Future Directions [66.40362209055023]
本研究の目的は,認知診断の現在のモデルについて,機械学習を用いた新たな展開に注目した調査を行うことである。
モデル構造,パラメータ推定アルゴリズム,モデル評価方法,適用例を比較して,認知診断モデルの最近の傾向を概観する。
論文 参考訳(メタデータ) (2024-07-07T18:02:00Z) - Out-of-distribution Detection in Medical Image Analysis: A survey [12.778646136644399]
コンピュータ支援診断は、ディープラーニングベースのコンピュータビジョン技術の発展の恩恵を受けている。
従来の教師付きディープラーニング手法は、テストサンプルがトレーニングデータと同じ分布から引き出されることを前提としている。
実際の臨床シナリオでは分布外のサンプルに遭遇し、深層学習に基づく医用画像解析タスクにおいてサイレント障害を引き起こす可能性がある。
論文 参考訳(メタデータ) (2024-04-28T18:51:32Z) - Recognizing Identities From Human Skeletons: A Survey on 3D Skeleton Based Person Re-Identification [60.939250172443586]
3Dスケルトンによる人物の再同定は、パターン認識コミュニティ内で注目を集める重要な研究分野である。
近年のSRID進歩の総合的なレビューと分析を行っている。
様々なベンチマークやプロトコルを用いて、最先端のSRID手法の徹底的な評価を行い、その有効性と効率性を比較した。
論文 参考訳(メタデータ) (2024-01-27T04:52:24Z) - A Survey on Interpretable Cross-modal Reasoning [64.37362731950843]
マルチメディア分析から医療診断に至るまで、クロスモーダル推論(CMR)が重要な分野として浮上している。
この調査は、解釈可能なクロスモーダル推論(I-CMR)の領域を掘り下げる
本調査では,I-CMRの3段階分類法について概説する。
論文 参考訳(メタデータ) (2023-09-05T05:06:48Z) - A Survey of Explainable AI in Deep Visual Modeling: Methods and Metrics [24.86176236641865]
我々は、ディープビジュアルモデルを解釈するための方法とメトリクスに焦点を当てたExplainable AIの最初の調査を示す。
最先端技術に沿った目覚ましい貢献をカバーし、既存の技術に関する分類学的組織を提供するだけでなく、さまざまな評価指標を発掘する。
論文 参考訳(メタデータ) (2023-01-31T06:49:42Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Deep Gait Recognition: A Survey [15.47582611826366]
歩行認識は、歩き方に基づいて個人を識別することを目的とした魅力的な生体測定モダリティです。
ディープラーニングは、差別的な表現を自動的に学習する能力によって、2015年からこの分野の研究環境を再構築した。
深層学習による歩行認識のブレークスルーと最近の展開を総合的に紹介します。
論文 参考訳(メタデータ) (2021-02-18T18:49:28Z) - Recent Progress in Appearance-based Action Recognition [73.6405863243707]
アクション認識は、ビデオ内の様々な人間の行動を特定するタスクである。
最近の外見に基づく手法は、正確な行動認識に向けて有望な進歩を遂げている。
論文 参考訳(メタデータ) (2020-11-25T10:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。