論文の概要: Measuring the Effect of Background on Classification and Feature Importance in Deep Learning for AV Perception
- arxiv url: http://arxiv.org/abs/2512.05937v1
- Date: Fri, 05 Dec 2025 18:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.13681
- Title: Measuring the Effect of Background on Classification and Feature Importance in Deep Learning for AV Perception
- Title(参考訳): AV知覚のための深層学習における背景が分類と特徴重要度に及ぼす影響の測定
- Authors: Anne Sielemann, Valentin Barner, Stefan Wolf, Masoud Roschani, Jens Ziehn, Juergen Beyerer,
- Abstract要約: ディープラーニングのための説明可能なAI(XAI)に対する一般的なアプローチは、与えられたモデルの分類タスクにおける入力特徴の重要性を分析することである。
本稿では,背景相関の孤立的影響,カメラの変動レベル,および交通標識形状が分類性能に与える影響を定量的に検討する。
その結果は、トレーニングドメインの変更に基づいて分類タスクをサポートするために、いつ、どのくらいのバックグラウンド機能が重要になるかの定量化を含む。
- 参考スコア(独自算出の注目度): 3.0259138432356796
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Common approaches to explainable AI (XAI) for deep learning focus on analyzing the importance of input features on the classification task in a given model: saliency methods like SHAP and GradCAM are used to measure the impact of spatial regions of the input image on the classification result. Combined with ground truth information about the location of the object in the input image (e.g., a binary mask), it is determined whether object pixels had a high impact on the classification result, or whether the classification focused on background pixels. The former is considered to be a sign of a healthy classifier, whereas the latter is assumed to suggest overfitting on spurious correlations. A major challenge, however, is that these intuitive interpretations are difficult to test quantitatively, and hence the output of such explanations lacks an explanation itself. One particular reason is that correlations in real-world data are difficult to avoid, and whether they are spurious or legitimate is debatable. Synthetic data in turn can facilitate to actively enable or disable correlations where desired but often lack a sufficient quantification of realism and stochastic properties. [...] Therefore, we systematically generate six synthetic datasets for the task of traffic sign recognition, which differ only in their degree of camera variation and background correlation [...] to quantify the isolated influence of background correlation, different levels of camera variation, and considered traffic sign shapes on the classification performance, as well as background feature importance. [...] Results include a quantification of when and how much background features gain importance to support the classification task based on changes in the training domain [...]. Download: synset.de/datasets/synset-signset-ger/background-effect
- Abstract(参考訳): ディープラーニングのための説明可能なAI(XAI)への一般的なアプローチは、与えられたモデルにおける分類タスクにおける入力特徴の重要性を分析することに焦点を当てている: SHAPやGradCAMのようなサリエンシ手法は、入力画像の空間領域が分類結果に与える影響を測定するために使用される。
入力画像(例えばバイナリマスク)中の物体の位置に関する地上の真実情報と組み合わせて、対象画素が分類結果に高い影響を与えているか、背景画素に焦点を絞った分類なのかを判定する。
前者は健全な分類器の兆候と考えられ、後者は急激な相関に過剰な適合を示唆していると考えられている。
しかし、大きな課題は、これらの直観的な解釈を定量的に検証することは困難であり、したがってそのような説明の出力は説明そのものを欠いていることである。
一つの特別な理由は、現実世界のデータ間の相関は避けがたいことであり、それらがスパイラルであるか合法であるかは議論の余地があることである。
合成データは、望まれるが現実性や確率的性質の十分な定量化を欠いた相関を積極的に有効または無効にするのに役立つ。
そこで, 交通標識認識の課題に対して, 背景相関や背景相関の程度が異なる6つの合成データセットを体系的に生成し, 背景相関の孤立的影響, カメラ変動のレベル, 交通標識形状が分類性能に与える影響, 背景特徴の重要性について検討した。
結果には、トレーニング領域の変更に基づいて分類タスクをサポートするために、いつ、どのくらいのバックグラウンド特徴が重要になるかの定量化が含まれている。
ダウンロード: synset.de/datasets/synset-signset-ger/background-エフェクト
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Exploiting the Distortion-Semantic Interaction in Fisheye Data [12.633032175875865]
魚眼のデータは他のタイプのカメラよりも広い視野の利点があるが、これは高い歪みを犠牲にしている。
中心からさらに離れたオブジェクトは、モデルがセマンティックコンテキストを特定するのが難しくなる変形を示す。
画像の中心から物体の距離に基づいて歪みクラスラベルを抽出し,この関係を利用する手法を提案する。
次に、同じ意味クラスのオブジェクトと互いに近い歪みクラスのオブジェクトを制約する重み付けされた対照的な損失で、バックボーンの表現空間を形成する。
論文 参考訳(メタデータ) (2023-04-28T20:23:38Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Text-driven object affordance for guiding grasp-type recognition in
multimodal robot teaching [18.529563816600607]
本研究は,ロボット教育におけるテキスト駆動型物体余裕が画像に基づくグリップ型認識に与える影響について検討する。
彼らは、物体が認識性能に与える影響を調べるために、一人称手画像のラベル付きデータセットを作成しました。
論文 参考訳(メタデータ) (2021-02-27T17:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。