論文の概要: Causal ImageNet: How to discover spurious features in Deep Learning?
- arxiv url: http://arxiv.org/abs/2110.04301v1
- Date: Fri, 8 Oct 2021 15:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 15:54:08.490894
- Title: Causal ImageNet: How to discover spurious features in Deep Learning?
- Title(参考訳): Causal ImageNet: ディープラーニングの急激な機能を見つけるには?
- Authors: Sahil Singla, Soheil Feizi
- Abstract要約: 現実世界でディープニューラルネットワークの信頼性が欠如している主な理由は、真のラベルとは因果関係のない、刺激的な入力機能に大きく依存しているためである。
本研究では,汎用モデルの推論に使用される刺激的および因果的視覚特性のサブセットを発見するための,スケーラブルなフレームワークを提案する。
これらのニューラルな特徴アノテーションは、人間の監督なしに多くの画像に非常によく一般化されていることを示す。
- 参考スコア(独自算出の注目度): 44.053067014796596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key reason for the lack of reliability of deep neural networks in the real
world is their heavy reliance on {\it spurious} input features that are
causally unrelated to the true label. Focusing on image classifications, we
define causal attributes as the set of visual features that are always a part
of the object while spurious attributes are the ones that are likely to {\it
co-occur} with the object but not a part of it (e.g., attribute ``fingers" for
class ``band aid"). Traditional methods for discovering spurious features
either require extensive human annotations (thus, not scalable), or are useful
on specific models. In this work, we introduce a {\it scalable} framework to
discover a subset of spurious and causal visual attributes used in inferences
of a general model and localize them on a large number of images with minimal
human supervision. Our methodology is based on this key idea: to identify
spurious or causal \textit{visual attributes} used in model predictions, we
identify spurious or causal \textit{neural features} (penultimate layer neurons
of a robust model) via limited human supervision (e.g., using top 5 activating
images per feature). We then show that these neural feature annotations {\it
generalize} extremely well to many more images {\it without} any human
supervision. We use the activation maps for these neural features as the soft
masks to highlight spurious or causal visual attributes. Using this
methodology, we introduce the {\it Causal Imagenet} dataset containing causal
and spurious masks for a large set of samples from Imagenet. We assess the
performance of several popular Imagenet models and show that they rely heavily
on various spurious features in their predictions.
- Abstract(参考訳): 現実世界におけるディープニューラルネットワークの信頼性の欠如の主な理由は、真のラベルとは因果関係のない"it spurious"入力機能に強く依存しているためである。
画像の分類に焦点をあてて、因果属性を常にオブジェクトの一部である視覚的特徴の集合として定義し、スプリアス属性はオブジェクトと共起する可能性が高いが、その一部ではないもの(例えば、クラス ``band aid に対する属性 ``fingers" など)と定義する。
突発的な特徴を発見する従来の方法は、広範囲な人間のアノテーションを必要とするか、あるいは特定のモデルで有用である。
本研究では,汎用モデルの推論に使用されるスプリアスと因果的視覚属性のサブセットを探索し,人間の監督を最小限に抑えながら,多数の画像にローカライズする「it scalable」フレームワークを提案する。
我々の方法論は、モデル予測に使用される刺激的または因果的 \textit{visual attribute} を識別するために、人間の監督(例えば、機能ごとのトップ5アクティベート画像)によって、刺激的または因果的 \textit{neural features} (ロバストモデルの最小層ニューロン)を識別する。
すると、これらのニューラル特徴アノテーションは、人間の監督なしに、さらに多くの画像に非常によく一般化する。
我々はこれらの神経機能にアクティベーションマップをソフトマスクとして使用し、刺激や因果的な視覚特性を強調する。
本手法を用いて,Imagenet から得られた大量のサンプルに対して,因果マスクと突発マスクを含む {\it Causal Imagenet} データセットを提案する。
我々は、人気のあるimagenetモデルの性能を評価し、予測において様々なスプリアス機能に大きく依存していることを示す。
関連論文リスト
- Fine-Tuning Text-To-Image Diffusion Models for Class-Wise Spurious
Feature Generation [14.016699770436961]
本稿では,大規模テキスト・画像拡散モデルを利用して,突発的な特徴を生成する手法を提案する。
実験結果から,異なる分類器間で一貫した鮮明な画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2024-02-13T03:55:09Z) - Unlocking Feature Visualization for Deeper Networks with MAgnitude
Constrained Optimization [17.93878159391899]
解釈可能な画像を生成するためのシンプルなアプローチであるMACOについて述べる。
我々のアプローチは、質的にも定量的にも、はるかに優れた結果をもたらし、大きな最先端のニューラルネットワークのための効率的かつ解釈可能な特徴視覚化を解き放つ。
特徴可視化手法の比較のための新しいベンチマークで本手法を検証し,画像Netデータセットの全クラスを対象とした可視化結果をリリースする。
論文 参考訳(メタデータ) (2023-06-11T23:33:59Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Spurious Features Everywhere -- Large-Scale Detection of Harmful
Spurious Features in ImageNet [36.48282338829549]
本稿では,ImageNetのような大規模データセットにおいて,突発的特徴を体系的に識別するフレームワークを開発する。
我々は,クラス単独で有害な刺激的特徴の存在が,そのクラスの予測を誘発するのに十分であることを示すことによって,その結果を検証する。
我々はSpuFixを単純な緩和法として導入し、これまで同定された有害なスプリアス機能に対するImageNet分類器の依存を減らす。
論文 参考訳(メタデータ) (2022-12-09T14:23:25Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Where is the Model Looking At?--Concentrate and Explain the Network
Attention [21.037241523836553]
本稿では、識別画像領域にモデル注意を集中させるための説明可能な属性ベースマルチタスク(EAT)フレームワークを提案する。
我々は,属性に基づく属性記述をネットワークに生成し,その属性を画像上にグラウンドして視覚的説明を示す。
結果は、EATフレームワークがネットワーク決定を解釈するマルチモーダルな説明をすることができることを示唆している。
論文 参考訳(メタデータ) (2020-09-29T08:36:18Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z) - Focus Longer to See Better:Recursively Refined Attention for
Fine-Grained Image Classification [148.4492675737644]
Deep Neural Networkは、粗い粒度の画像分類タスクにおいて大きな進歩を見せている。
本稿では,これらの限界差に着目して,より代表的な特徴を抽出する。
我々のネットワークは、画像の一部に繰り返し焦点を合わせ、クラス間の小さな識別的部分を見つける。
論文 参考訳(メタデータ) (2020-05-22T03:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。