論文の概要: On Background Bias of Post-Hoc Concept Embeddings in Computer Vision DNNs
- arxiv url: http://arxiv.org/abs/2504.08602v1
- Date: Fri, 11 Apr 2025 15:10:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:25.596563
- Title: On Background Bias of Post-Hoc Concept Embeddings in Computer Vision DNNs
- Title(参考訳): コンピュータビジョンDNNにおけるポストホック概念埋め込みの背景バイアスについて
- Authors: Gesina Schwalbe, Georgii Mikriukov, Edgar Heinert, Stavros Gerolymatos, Mert Keser, Alois Knoll, Matthias Rottmann, Annika Mütze,
- Abstract要約: C-XAIはディープニューラルネットワーク(DNN)の潜伏空間に人間の解釈可能な意味概念がどのように埋め込まれているかを研究する
この研究は、Net2Vecベースの概念セグメンテーションの確立した技術が背景バイアスを頻繁に捉えることを検証し、徹底的に確認する。
我々の結果は、低コストのセットアップでさえ、価値ある洞察と改善されたバックグラウンドロバスト性の両方を提供できることを示唆している。
- 参考スコア(独自算出の注目度): 7.252418758692503
- License:
- Abstract: The thriving research field of concept-based explainable artificial intelligence (C-XAI) investigates how human-interpretable semantic concepts embed in the latent spaces of deep neural networks (DNNs). Post-hoc approaches therein use a set of examples to specify a concept, and determine its embeddings in DNN latent space using data driven techniques. This proved useful to uncover biases between different target (foreground or concept) classes. However, given that the background is mostly uncontrolled during training, an important question has been left unattended so far: Are/to what extent are state-of-the-art, data-driven post-hoc C-XAI approaches themselves prone to biases with respect to their backgrounds? E.g., wild animals mostly occur against vegetation backgrounds, and they seldom appear on roads. Even simple and robust C-XAI methods might abuse this shortcut for enhanced performance. A dangerous performance degradation of the concept-corner cases of animals on the road could thus remain undiscovered. This work validates and thoroughly confirms that established Net2Vec-based concept segmentation techniques frequently capture background biases, including alarming ones, such as underperformance on road scenes. For the analysis, we compare 3 established techniques from the domain of background randomization on >50 concepts from 2 datasets, and 7 diverse DNN architectures. Our results indicate that even low-cost setups can provide both valuable insight and improved background robustness.
- Abstract(参考訳): 概念に基づく説明可能な人工知能(C-XAI)の研究分野は、人間の解釈可能な意味概念がディープニューラルネットワーク(DNN)の潜在空間にどのように埋め込まれているかを研究する。
ポストホックアプローチでは、一連の例を使って概念を指定し、データ駆動技術を用いてDNNラテント空間への埋め込みを決定する。
これは、異なるターゲット(地上または概念)クラス間のバイアスを明らかにするのに有用であることが証明された。
しかし、背景がトレーニング中にほとんど制御されていないことを考えると、今のところ重要な疑問が残されている: 最先端の、データ駆動のC-XAIは、その背景に関して偏見を抱く傾向にあるか?
例えば、野生動物は主に植生の背景に対して発生し、道路にはほとんど現れない。
シンプルで堅牢なC-XAIメソッドでさえ、パフォーマンス向上のためにこのショートカットを悪用する可能性がある。
道路上の動物のコンセプトコーンのケースの危険な性能劣化は、いまだに発見されていない。
この研究は、Net2Vecベースのコンセプトセグメンテーションの確立した技術が、道路での過度なパフォーマンスなどの警告を含む背景バイアスを頻繁に捉えることを検証し、徹底的に確認する。
分析では,2つのデータセットから50以上の概念を背景ランダム化する領域と,7つの異なるDNNアーキテクチャを比較した。
我々の結果は、低コストのセットアップでさえ、価値ある洞察と改善されたバックグラウンドロバスト性の両方を提供できることを示唆している。
関連論文リスト
- Visual-TCAV: Concept-based Attribution and Saliency Maps for Post-hoc Explainability in Image Classification [3.9626211140865464]
近年,畳み込みニューラルネットワーク(CNN)のパフォーマンスが大幅に向上している。
しかし、そのサイズと複雑さのため、ブラックボックスとして機能し、透明性の懸念につながります。
本稿では,これらの手法間のギャップを埋めることを目的とした,ポストホックな説明可能性フレームワークであるVisual-TCAVを紹介する。
論文 参考訳(メタデータ) (2024-11-08T16:52:52Z) - Unveiling Ontological Commitment in Multi-Modal Foundation Models [7.485653059927206]
ディープニューラルネットワーク(DNN)は、概念の豊かな表現とそれぞれの推論を自動的に学習する。
そこで本研究では,葉柄概念の集合に対してマルチモーダルDNNから学習したスーパークラス階層を抽出する手法を提案する。
最初の評価研究では、最先端基礎モデルから有意義な存在論的階級階層を抽出できることが示されている。
論文 参考訳(メタデータ) (2024-09-25T17:24:27Z) - Towards Cross-View-Consistent Self-Supervised Surround Depth Estimation [9.569646683579899]
連続画像からの自己監督下周深度推定は経済的な代替手段を提供する。
従来のSSSDE法では、画像間で情報を融合する異なるメカニズムが提案されているが、それらのいくつかは、クロスビュー制約を明示的に考慮している。
本稿では,SSSDEのクロスビュー一貫性を高めるために,効率的で一貫したポーズ推定設計と2つの損失関数を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:29:05Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - VA-DepthNet: A Variational Approach to Single Image Depth Prediction [163.14849753700682]
VA-DepthNetは、単一画像深度予測問題に対する単純で効果的で正確なディープニューラルネットワークアプローチである。
本論文は,複数のベンチマークデータセットに対する広範囲な評価とアブレーション解析により提案手法の有用性を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:55:58Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - CLAD: A Contrastive Learning based Approach for Background Debiasing [43.0296255565593]
我々は,CNNにおける背景バイアスを軽減するために,対照的な学習に基づくアプローチを導入する。
前回のベンチマークを4.1%で上回り、バックグラウンドチャレンジデータセットで最先端の結果を得た。
論文 参考訳(メタデータ) (2022-10-06T08:33:23Z) - Concept Embeddings for Fuzzy Logic Verification of Deep Neural Networks
in Perception Tasks [1.2246649738388387]
我々は、訓練された畳み込みニューラルネットワーク(CNN)が特定の記号的背景知識を尊重するかどうかを検証するための、単純で効果的なアプローチを提案する。
知識はファジィ述語論理則から成り立つ。
このアプローチはファジィ性と概念出力の校正の恩恵を受けていることを示す。
論文 参考訳(メタデータ) (2022-01-03T10:35:47Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。