論文の概要: Lost in Context: The Influence of Context on Feature Attribution Methods for Object Recognition
- arxiv url: http://arxiv.org/abs/2411.02833v1
- Date: Tue, 05 Nov 2024 06:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:59:48.091310
- Title: Lost in Context: The Influence of Context on Feature Attribution Methods for Object Recognition
- Title(参考訳): 文脈における損失:対象認識のための特徴帰属法における文脈の影響
- Authors: Sayanta Adhikari, Rishav Kumar, Konda Reddy Mopuri, Rajalakshmi Pachamuthu,
- Abstract要約: 本研究では,文脈操作がモデル精度と特徴属性の両方にどのように影響するかを検討する。
我々は、オブジェクト認識タスクにおけるコンテキストに基づくディープニューラルネットワークの信頼度を解明するために、様々な特徴属性技術を用いている。
- 参考スコア(独自算出の注目度): 4.674826882670651
- License:
- Abstract: Contextual information plays a critical role in object recognition models within computer vision, where changes in context can significantly affect accuracy, underscoring models' dependence on contextual cues. This study investigates how context manipulation influences both model accuracy and feature attribution, providing insights into the reliance of object recognition models on contextual information as understood through the lens of feature attribution methods. We employ a range of feature attribution techniques to decipher the reliance of deep neural networks on context in object recognition tasks. Using the ImageNet-9 and our curated ImageNet-CS datasets, we conduct experiments to evaluate the impact of contextual variations, analyzed through feature attribution methods. Our findings reveal several key insights: (a) Correctly classified images predominantly emphasize object volume attribution over context volume attribution. (b) The dependence on context remains relatively stable across different context modifications, irrespective of classification accuracy. (c) Context change exerts a more pronounced effect on model performance than Context perturbations. (d) Surprisingly, context attribution in `no-information' scenarios is non-trivial. Our research moves beyond traditional methods by assessing the implications of broad-level modifications on object recognition, either in the object or its context.
- Abstract(参考訳): 文脈情報はコンピュータビジョン内のオブジェクト認識モデルにおいて重要な役割を果たす。
本研究では,コンテクスト操作がモデル精度と特徴属性の両方にどのように影響するかを考察し,特徴属性のレンズを通して理解した文脈情報へのオブジェクト認識モデルの依存について考察する。
我々は、オブジェクト認識タスクにおけるコンテキストに基づくディープニューラルネットワークの信頼度を解明するために、様々な特徴属性技術を用いている。
ImageNet-9 と キュレートした ImageNet-CS データセットを用いて,特徴帰属法を用いて分析した文脈変動の影響を評価する実験を行った。
私たちの発見は、いくつかの重要な洞察を浮き彫りにした。
(a) 正しく分類された画像は、主に文脈体積の属性よりも物体体積の属性を強調する。
(b) 分類精度に関係なく, 文脈依存は, 異なる文脈修正において比較的安定している。
(c)コンテキストの変化はコンテキストの摂動よりもモデルのパフォーマンスに顕著な影響を与えます。
(d)驚くべきことに、「情報なし」のシナリオにおける文脈属性は非自明である。
我々の研究は、オブジェクトまたはそのコンテキストにおいて、オブジェクト認識に対する幅広いレベルの修正の影響を評価することによって、従来の方法を超えて進んでいる。
関連論文リスト
- Mitigating Object Dependencies: Improving Point Cloud Self-Supervised Learning through Object Exchange [50.45953583802282]
我々は,ポイントクラウドシーン理解のための新たな自己教師型学習(SSL)戦略を導入する。
このアプローチでは、オブジェクトパターンとコンテキストキューの両方を活用して、堅牢な機能を生成します。
提案手法は既存のSSL技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-11T06:39:53Z) - ObjectCompose: Evaluating Resilience of Vision-Based Models on Object-to-Background Compositional Changes [64.57705752579207]
本研究では,視覚モデルによる多様な背景背景環境に対するレジリエンスを評価する。
我々は、画像から画像への変換、画像から画像への変換、および画像から画像への変換モデルの生成機能を利用して、オブジェクトから背景への変換を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-07T17:48:48Z) - Feature Importance versus Feature Influence and What It Signifies for
Explainable AI [0.0]
特徴の重要性は、最先端のExplainable AIメソッドで使われている機能の影響と混同してはならない。
CIU(Contextual Importance and Utility)メソッドは、グローバルな特徴とローカルな特徴の統一的な定義を提供する。
論文 参考訳(メタデータ) (2023-08-07T13:46:18Z) - Relational Local Explanations [11.679389861042]
我々は,入力変数間の関係解析に基づく,新しいモデルに依存しない,置換に基づく特徴帰属アルゴリズムを開発した。
機械学習のモデル決定とデータについて、より広範な洞察を得ることができます。
論文 参考訳(メタデータ) (2022-12-23T14:46:23Z) - Context-driven Visual Object Recognition based on Knowledge Graphs [0.8701566919381223]
本稿では,知識グラフに符号化された外部文脈知識を用いて,ディープラーニング手法を強化する手法を提案する。
我々は、異なる文脈ビューが同じ画像データセットの学習対象表現に与える影響を調べるために、一連の実験を行った。
論文 参考訳(メタデータ) (2022-10-20T13:09:00Z) - Perceptual Grouping in Contrastive Vision-Language Models [59.1542019031645]
画像内の物体の位置を視覚言語モデルで理解し,画像の視覚的関連部分をグループ化する方法について述べる。
本稿では,意味情報と空間情報の両方を一意に学習するモデルとして,最小限の修正を提案する。
論文 参考訳(メタデータ) (2022-10-18T17:01:35Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Contextual Interference Reduction by Selective Fine-Tuning of Neural
Networks [1.0152838128195465]
本研究では,不整合前景対象オブジェクト表現の干渉におけるコンテキストの役割について検討する。
私たちはボトムアップとトップダウンの処理パラダイムの恩恵を受けるフレームワークに取り組んでいます。
論文 参考訳(メタデータ) (2020-11-21T20:11:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。