論文の概要: Revealing Hidden Context Bias in Segmentation and Object Detection
through Concept-specific Explanations
- arxiv url: http://arxiv.org/abs/2211.11426v1
- Date: Mon, 21 Nov 2022 13:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:24:33.901588
- Title: Revealing Hidden Context Bias in Segmentation and Object Detection
through Concept-specific Explanations
- Title(参考訳): 概念特異的説明によるセグメンテーションと物体検出における隠れコンテキストバイアスの探索
- Authors: Maximilian Dreyer, Reduan Achtibat, Thomas Wiegand, Wojciech Samek,
Sebastian Lapuschkin
- Abstract要約: 提案手法は,モデルが推論時に学習し,認識し,使用した関連概念を自動的に識別し,視覚化し,入力空間内で正確に特定する,ポストホックなeXplainable Artificial Intelligence法であるL-CRPを提案する。
提案手法の信頼性を,異なる概念帰属法を定量的に比較して検証し,CityScapes, Pascal VOC, MS COCO 2017などの一般的なデータセットに対する説明複雑性への影響について検討する。
- 参考スコア(独自算出の注目度): 14.77637281844823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applying traditional post-hoc attribution methods to segmentation or object
detection predictors offers only limited insights, as the obtained feature
attribution maps at input level typically resemble the models' predicted
segmentation mask or bounding box. In this work, we address the need for more
informative explanations for these predictors by proposing the post-hoc
eXplainable Artificial Intelligence method L-CRP to generate explanations that
automatically identify and visualize relevant concepts learned, recognized and
used by the model during inference as well as precisely locate them in input
space. Our method therefore goes beyond singular input-level attribution maps
and, as an approach based on the recently published Concept Relevance
Propagation technique, is efficiently applicable to state-of-the-art black-box
architectures in segmentation and object detection, such as DeepLabV3+ and
YOLOv6, among others. We verify the faithfulness of our proposed technique by
quantitatively comparing different concept attribution methods, and discuss the
effect on explanation complexity on popular datasets such as CityScapes, Pascal
VOC and MS COCO 2017. The ability to precisely locate and communicate concepts
is used to reveal and verify the use of background features, thereby
highlighting possible biases of the model.
- Abstract(参考訳): セグメンテーションやオブジェクト検出予測に従来のポストホック帰属法を適用すると、入力レベルの特徴帰属マップはモデルが予測したセグメンテーションマスクやバウンディングボックスに似ているため、限られた洞察しか得られない。
本研究では, モデルが推論時に学習し, 認識し, 使用した関連概念を自動的に識別し, 正確に入力空間に配置する, ポストホックなeXplainable Artificial Intelligence法L-CRPを提案することにより, これらの予測器のより情報的な説明の必要性に対処する。
したがって,本手法は特異な入力レベルの属性マップに留まらず,最近発表された概念関連伝播手法に基づくアプローチとして,DeepLabV3+やYOLOv6などのセグメント化やオブジェクト検出における最先端のブラックボックスアーキテクチャに適用できる。
提案手法の信頼性を,異なる概念帰属法を定量的に比較して検証し,CityScapes, Pascal VOC, MS COCO 2017などの一般的なデータセットに対する説明複雑性への影響について検討する。
コンセプトを正確に見つけて伝達する能力は、背景機能の使用を明確化し、検証するために使用され、それによってモデルのバイアスが強調される。
関連論文リスト
- Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Exploring Concept Contribution Spatially: Hidden Layer Interpretation
with Spatial Activation Concept Vector [5.873416857161077]
コンセプトアクティベーションベクトル(TCAV)を使用したテストは、クエリ概念のターゲットクラスへのコントリビューションを定量化する強力なツールを提供する。
対象物が領域のごく一部しか占有していない画像の場合、TCAV評価は冗長な背景特徴によって妨害される可能性がある。
論文 参考訳(メタデータ) (2022-05-21T15:58:57Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。