論文の概要: Spurious Features Everywhere -- Large-Scale Detection of Harmful
Spurious Features in ImageNet
- arxiv url: http://arxiv.org/abs/2212.04871v1
- Date: Fri, 9 Dec 2022 14:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:37:29.956645
- Title: Spurious Features Everywhere -- Large-Scale Detection of Harmful
Spurious Features in ImageNet
- Title(参考訳): Spurious Features Everywhere -- ImageNetにおける有害なSpurious Featuresの大規模検出
- Authors: Yannic Neuhaus, Maximilian Augustin, Valentyn Boreiko, Matthias Hein
- Abstract要約: 本稿では,ImageNetのような大規模データセットにおいて,突発的特徴を体系的に識別するフレームワークを開発する。
我々は,そのクラスの有害な刺激的特徴の存在が,そのクラスの予測を引き起こすのに十分であることを示すことによって,その結果を検証する。
- 参考スコア(独自算出の注目度): 37.045598126834356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benchmark performance of deep learning classifiers alone is not a reliable
predictor for the performance of a deployed model. In particular, if the image
classifier has picked up spurious features in the training data, its
predictions can fail in unexpected ways. In this paper, we develop a framework
that allows us to systematically identify spurious features in large datasets
like ImageNet. It is based on our neural PCA components and their
visualization. Previous work on spurious features of image classifiers often
operates in toy settings or requires costly pixel-wise annotations. In
contrast, we validate our results by checking that presence of the harmful
spurious feature of a class is sufficient to trigger the prediction of that
class. We introduce a novel dataset "Spurious ImageNet" and check how much
existing classifiers rely on spurious features.
- Abstract(参考訳): ディープラーニング分類器のベンチマーク性能は、デプロイされたモデルの性能の信頼性の高い予測器ではない。
特に、画像分類器がトレーニングデータの急激な特徴を拾った場合、予測は予期せぬ方法で失敗する可能性がある。
本稿では,ImageNetのような大規模データセットにおいて,突発的特徴を体系的に識別するフレームワークを開発する。
それは私たちの神経PCAコンポーネントとその可視化に基づいています。
画像分類器のスプリアス機能に関する以前の研究は、しばしばおもちゃの設定で動作し、高価なピクセル単位でアノテーションを必要とする。
対照的に、クラスに有害な刺激的特徴が存在することが、そのクラスの予測を引き起こすのに十分であるかどうかを確認することで、結果を検証する。
我々は,新しいデータセット「spurious imagenet」を導入し,既存の分類器がスプリアス機能にどの程度依存しているかをチェックする。
関連論文リスト
- ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - Fine-Tuning Text-To-Image Diffusion Models for Class-Wise Spurious
Feature Generation [14.016699770436961]
本稿では,大規模テキスト・画像拡散モデルを利用して,突発的な特徴を生成する手法を提案する。
実験結果から,異なる分類器間で一貫した鮮明な画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2024-02-13T03:55:09Z) - ImageNet-E: Benchmarking Neural Network Robustness via Attribute Editing [45.14977000707886]
ImageNetにおける高い精度は、通常、異なる汚職に対してより堅牢性をもたらす。
我々は、背景、大きさ、位置、方向の制御によるオブジェクト編集のためのツールキットを作成する。
我々は、畳み込みニューラルネットワークと視覚変換器の両方を含む現在のディープラーニングモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-03-30T02:02:32Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Causal ImageNet: How to discover spurious features in Deep Learning? [44.053067014796596]
現実世界でディープニューラルネットワークの信頼性が欠如している主な理由は、真のラベルとは因果関係のない、刺激的な入力機能に大きく依存しているためである。
本研究では,汎用モデルの推論に使用される刺激的および因果的視覚特性のサブセットを発見するための,スケーラブルなフレームワークを提案する。
これらのニューラルな特徴アノテーションは、人間の監督なしに多くの画像に非常によく一般化されていることを示す。
論文 参考訳(メタデータ) (2021-10-08T15:55:05Z) - Automated Cleanup of the ImageNet Dataset by Model Consensus,
Explainability and Confident Learning [0.0]
ImageNetは、ILSVRC12Netでトレーニングされた様々な畳み込みニューラルネットワーク(CNN)のバックボーンである。
本稿では,モデルのコンセンサス,説明可能性,自信のある学習に基づく自動アプリケーションについて述べる。
ImageNet-CleanはSqueezeNetおよびEfficientNet-B0モデルのモデルパフォーマンスを2-2.4%向上させる。
論文 参考訳(メタデータ) (2021-03-30T13:16:35Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Are we done with ImageNet? [86.01120671361844]
我々は、ImageNetバリデーションセットの人間のアノテーションを収集するための、より堅牢な手順を開発する。
我々は最近提案されたImageNet分類器の精度を再評価し、その精度は元のラベルで報告されたものよりもかなり小さいことがわかった。
オリジナルのImageNetラベルは、もはやこの独立に収集されたセットの最良の予測者ではなく、ビジョンモデルの評価における彼らの有用性が終わりに近づいていることを示している。
論文 参考訳(メタデータ) (2020-06-12T13:17:25Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。