論文の概要: Understanding the Detrimental Class-level Effects of Data Augmentation
- arxiv url: http://arxiv.org/abs/2401.01764v1
- Date: Thu, 7 Dec 2023 18:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 09:54:56.400357
- Title: Understanding the Detrimental Class-level Effects of Data Augmentation
- Title(参考訳): データ拡張の有害クラスレベル効果の理解
- Authors: Polina Kirichenko, Mark Ibrahim, Randall Balestriero, Diane
Bouchacourt, Ramakrishna Vedantam, Hamed Firooz, Andrew Gordon Wilson
- Abstract要約: 最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 63.1733767714073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation (DA) encodes invariance and provides implicit
regularization critical to a model's performance in image classification tasks.
However, while DA improves average accuracy, recent studies have shown that its
impact can be highly class dependent: achieving optimal average accuracy comes
at the cost of significantly hurting individual class accuracy by as much as
20% on ImageNet. There has been little progress in resolving class-level
accuracy drops due to a limited understanding of these effects. In this work,
we present a framework for understanding how DA interacts with class-level
learning dynamics. Using higher-quality multi-label annotations on ImageNet, we
systematically categorize the affected classes and find that the majority are
inherently ambiguous, co-occur, or involve fine-grained distinctions, while DA
controls the model's bias towards one of the closely related classes. While
many of the previously reported performance drops are explained by multi-label
annotations, our analysis of class confusions reveals other sources of accuracy
degradation. We show that simple class-conditional augmentation strategies
informed by our framework improve performance on the negatively affected
classes.
- Abstract(参考訳): データ拡張(DA)は不変性を符号化し、画像分類タスクにおけるモデルの性能に重要な暗黙の正規化を提供する。
しかし、DAは平均精度を向上する一方で、最近の研究では、その影響はクラス依存度が高いことが示されている: 最適な平均精度を達成するには、ImageNet上で最大20%の精度で個々のクラス精度を著しく損なうコストがかかる。
これらの効果の理解が限られているため、クラスレベルの精度低下の解消にはほとんど進展がなかった。
本稿では,daがクラスレベルの学習ダイナミクスとどのように相互作用するかを理解するためのフレームワークを提案する。
imagenet上で高品質なマルチラベルアノテーションを使用することで、影響のあるクラスを体系的に分類し、大半は本質的に曖昧、共起、または細かな区別を伴うことを発見し、一方daは関連するクラスの1つに対してモデルのバイアスを制御する。
これまで報告した性能低下の多くはマルチラベルアノテーションによって説明されているが、クラス混乱の解析は、他の精度低下の原因を明らかにしている。
提案手法により,単純なクラス条件強化戦略により,悪影響のあるクラスのパフォーマンスが向上することを示す。
関連論文リスト
- Extract More from Less: Efficient Fine-Grained Visual Recognition in Low-Data Regimes [0.22499166814992438]
本稿では,この課題に対するディープニューラルネットワークの性能向上を目的とした,AD-Netと呼ばれる新しいフレームワークを提案する。
特に, 本手法は, 強化試料を自己蒸留し, 有害なオーバーフィッティングを緩和することにより, 学習機能を洗練することを目的としている。
最小限のデータで、我々のフレームワークは、最大で45%の精度で顕著な相対的正確性を示した。
論文 参考訳(メタデータ) (2024-06-28T10:45:25Z) - CAT: Exploiting Inter-Class Dynamics for Domain Adaptive Object Detection [22.11525246060963]
ドメイン適応設定におけるクラスバイアス問題に対処するクラス意識教師(CAT)を提案する。
我々の研究では、クラス間関係モジュール(ICRm)とのクラス関係を近似し、モデル内のバイアスを減らすためにそれを利用する。
各種データセットおよびアブレーション実験により,本手法はドメイン適応設定におけるクラスバイアスに対処可能であることが示された。
論文 参考訳(メタデータ) (2024-03-28T10:02:08Z) - Better (pseudo-)labels for semi-supervised instance segmentation [21.703173564795353]
本稿では,教師モデルの訓練プロセスを強化するための2段階戦略を導入し,数発の学習における性能を大幅に向上させる。
我々は,LVISデータセット上での最先端の教師付きベースライン性能に対して,平均精度(AP)が2.8%,レアクラスのAPが10.3%向上し,顕著な改善が見られた。
論文 参考訳(メタデータ) (2024-03-18T11:23:02Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Not All Negatives are Equal: Label-Aware Contrastive Loss for
Fine-grained Text Classification [0.0]
2つの細粒度テキスト分類タスクにおいて、事前訓練された言語モデルの対照的な微調整を解析する。
クラス関係を比較対象関数に適応的に組み込んで、正と負の異なる評価を支援する。
ラベルを意識したContrastive Lossは,従来のコントラスト手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-12T04:19:17Z) - Fair Comparison: Quantifying Variance in Resultsfor Fine-grained Visual
Categorization [0.5735035463793008]
平均的な分類精度は、しばしば孤立して用いられる。
クラスの数が増加するにつれて、平均精度だけで伝達される情報の量は減少する。
その最も壮大な弱点は、クラスごとにモデルのパフォーマンスを記述できないことだが、平均的な精度は、同じアーキテクチャのトレーニングされたモデルから別のアーキテクチャへ、パフォーマンスがどのように変化するかを記述できない。
論文 参考訳(メタデータ) (2021-09-07T15:47:27Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。