論文の概要: Background Splitting: Finding Rare Classes in a Sea of Background
- arxiv url: http://arxiv.org/abs/2008.12873v1
- Date: Fri, 28 Aug 2020 23:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:37:37.330327
- Title: Background Splitting: Finding Rare Classes in a Sea of Background
- Title(参考訳): 背景分割:背景の海に希少なクラスを見つける
- Authors: Ravi Teja Mullapudi, Fait Poms, William R. Mark, Deva Ramanan, Kayvon
Fatahalian
- Abstract要約: 我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
- 参考スコア(独自算出の注目度): 55.03789745276442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on the real-world problem of training accurate deep models for image
classification of a small number of rare categories. In these scenarios, almost
all images belong to the background category in the dataset (>95% of the
dataset is background). We demonstrate that both standard fine-tuning
approaches and state-of-the-art approaches for training on imbalanced datasets
do not produce accurate deep models in the presence of this extreme imbalance.
Our key observation is that the extreme imbalance due to the background
category can be drastically reduced by leveraging visual knowledge from an
existing pre-trained model. Specifically, the background category is "split"
into smaller and more coherent pseudo-categories during training using a
pre-trained model. We incorporate background splitting into an image
classification model by adding an auxiliary loss that learns to mimic the
predictions of the existing, pre-trained image classification model. Note that
this process is automatic and requires no additional manual labels. The
auxiliary loss regularizes the feature representation of the shared network
trunk by requiring it to discriminate between previously homogeneous background
instances and reduces overfitting to the small number of rare category
positives. We also show that BG splitting can be combined with other background
imbalance methods to further improve performance. We evaluate our method on a
modified version of the iNaturalist dataset where only a small subset of rare
category labels are available during training (all other images are labeled as
background). By jointly learning to recognize ImageNet categories and selected
iNaturalist categories, our approach yields performance that is 42.3 mAP points
higher than a fine-tuning baseline when 99.98% of the data is background, and
8.3 mAP points higher than SotA baselines when 98.30% of the data is
background.
- Abstract(参考訳): 我々は,少数の稀なカテゴリの画像分類のための,正確な深部モデルの訓練に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
背景カテゴリによる極端な不均衡は,既存の事前学習モデルからの視覚知識を活用することで劇的に低減できる。
具体的には、トレーニング中に事前訓練されたモデルを用いて、背景カテゴリをより小さくよりコヒーレントな擬似カテゴリに「分割」する。
既存の学習済み画像分類モデルの予測を模倣することを学ぶ補助的損失を追加することで、背景分割を画像分類モデルに組み込む。
このプロセスは自動であり、追加のマニュアルラベルを必要としない。
補助損失は、それまでの均質な背景インスタンスを識別する必要により共有ネットワークトランクの特徴表現を規則化し、少数の稀なカテゴリー正に過度に適合する。
また,BG分割を他のバックグラウンド不均衡手法と組み合わせることで,さらなる性能向上が期待できることを示す。
iNaturalistデータセットの修正版では、トレーニング中にレアカテゴリラベルの小さなサブセットしか利用できない(他のすべての画像は背景としてラベル付けされている)。
ImageNetカテゴリと選択したiNaturalistカテゴリを共同で認識することで、データの99.98%がバックグラウンドである場合、細調整ベースラインよりも42.3mAPポイント、98.30%がバックグラウンドである場合には8.3mAPポイントというパフォーマンスが得られる。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Spawrious: A Benchmark for Fine Control of Spurious Correlation Biases [8.455991178281469]
我々は,クラスと背景の素早い相関関係を含む画像分類ベンチマークスイートであるベンチマーク-O2O,M2M-Easy,Medium,Hardを提案する。
得られたデータセットは高品質で、約152Kの画像を含んでいる。
論文 参考訳(メタデータ) (2023-03-09T18:22:12Z) - Co-training $2^L$ Submodels for Visual Recognition [67.02999567435626]
サブモデルコトレーニングは、コトレーニング、自己蒸留、深さに関連する正規化手法である。
サブモデルのコトレーニングは,画像分類やセマンティックセグメンテーションなどの認識タスクのためのバックボーンのトレーニングに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-09T14:38:09Z) - Invariant Learning via Diffusion Dreamed Distribution Shifts [121.71383835729848]
拡散ドリーム分布シフト(D3S)と呼ばれるデータセットを提案する。
D3Sは、テキストプロンプトを用いてStableDiffusionを通じて生成された合成画像と、サンプルフォアグラウンドイメージを背景テンプレートイメージにペーストした画像ガイドから構成される。
拡散モデルの驚くべきフォトリアリズムのため、我々の画像は以前の合成データセットよりも自然な画像に近い。
論文 参考訳(メタデータ) (2022-11-18T17:07:43Z) - Few-shot Open-set Recognition Using Background as Unknowns [58.04165813493666]
未使用のオープンセット認識は、見知らぬクラスの限られた訓練データしか持たない、目に見える画像と新しい画像の両方を分類することを目的としている。
提案手法は,複数のベースラインより優れるだけでなく,3つのベンチマークで新たな結果が得られた。
論文 参考訳(メタデータ) (2022-07-19T04:19:29Z) - Towards General Deep Leakage in Federated Learning [13.643899029738474]
フェデレートラーニング(FL)は、ユーザのプライバシーを保護するために、ローカルデータではなくローカルモデルを共有し、集約することで、グローバルモデルのパフォーマンスを向上させる。
いくつかの研究では、アタッカーが共有勾配情報に基づいてプライベートデータを復元できることが示されている。
本稿では,FedSGDとFedAvgの利用シナリオに応じて,共有勾配や重みからトレーニングデータを再構築する手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T07:49:52Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。