論文の概要: Understanding the Detrimental Class-level Effects of Data Augmentation
- arxiv url: http://arxiv.org/abs/2401.01764v1
- Date: Thu, 7 Dec 2023 18:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 09:54:56.400357
- Title: Understanding the Detrimental Class-level Effects of Data Augmentation
- Title(参考訳): データ拡張の有害クラスレベル効果の理解
- Authors: Polina Kirichenko, Mark Ibrahim, Randall Balestriero, Diane
Bouchacourt, Ramakrishna Vedantam, Hamed Firooz, Andrew Gordon Wilson
- Abstract要約: 最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 63.1733767714073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation (DA) encodes invariance and provides implicit
regularization critical to a model's performance in image classification tasks.
However, while DA improves average accuracy, recent studies have shown that its
impact can be highly class dependent: achieving optimal average accuracy comes
at the cost of significantly hurting individual class accuracy by as much as
20% on ImageNet. There has been little progress in resolving class-level
accuracy drops due to a limited understanding of these effects. In this work,
we present a framework for understanding how DA interacts with class-level
learning dynamics. Using higher-quality multi-label annotations on ImageNet, we
systematically categorize the affected classes and find that the majority are
inherently ambiguous, co-occur, or involve fine-grained distinctions, while DA
controls the model's bias towards one of the closely related classes. While
many of the previously reported performance drops are explained by multi-label
annotations, our analysis of class confusions reveals other sources of accuracy
degradation. We show that simple class-conditional augmentation strategies
informed by our framework improve performance on the negatively affected
classes.
- Abstract(参考訳): データ拡張(DA)は不変性を符号化し、画像分類タスクにおけるモデルの性能に重要な暗黙の正規化を提供する。
しかし、DAは平均精度を向上する一方で、最近の研究では、その影響はクラス依存度が高いことが示されている: 最適な平均精度を達成するには、ImageNet上で最大20%の精度で個々のクラス精度を著しく損なうコストがかかる。
これらの効果の理解が限られているため、クラスレベルの精度低下の解消にはほとんど進展がなかった。
本稿では,daがクラスレベルの学習ダイナミクスとどのように相互作用するかを理解するためのフレームワークを提案する。
imagenet上で高品質なマルチラベルアノテーションを使用することで、影響のあるクラスを体系的に分類し、大半は本質的に曖昧、共起、または細かな区別を伴うことを発見し、一方daは関連するクラスの1つに対してモデルのバイアスを制御する。
これまで報告した性能低下の多くはマルチラベルアノテーションによって説明されているが、クラス混乱の解析は、他の精度低下の原因を明らかにしている。
提案手法により,単純なクラス条件強化戦略により,悪影響のあるクラスのパフォーマンスが向上することを示す。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Topological Augmentation for Class-Imbalanced Node Classification [64.20437487896343]
探索下トポロジ中心の視点から,クラス不均衡バイアスの源泉について検討した。
そこで我々は, アンビバシアン/ディスタントメッセージパッシングの影響を受けやすいノードを動的に修正する, 軽量なトポロジカル拡張手法TOBAを考案した。
ToBAはモデルに依存しない、効率的で多用途なソリューションであり、シームレスに組み合わせて、他の不均衡処理技術をさらに促進することができる。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Not All Negatives are Equal: Label-Aware Contrastive Loss for
Fine-grained Text Classification [0.0]
2つの細粒度テキスト分類タスクにおいて、事前訓練された言語モデルの対照的な微調整を解析する。
クラス関係を比較対象関数に適応的に組み込んで、正と負の異なる評価を支援する。
ラベルを意識したContrastive Lossは,従来のコントラスト手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-12T04:19:17Z) - Fair Comparison: Quantifying Variance in Resultsfor Fine-grained Visual
Categorization [0.5735035463793008]
平均的な分類精度は、しばしば孤立して用いられる。
クラスの数が増加するにつれて、平均精度だけで伝達される情報の量は減少する。
その最も壮大な弱点は、クラスごとにモデルのパフォーマンスを記述できないことだが、平均的な精度は、同じアーキテクチャのトレーニングされたモデルから別のアーキテクチャへ、パフォーマンスがどのように変化するかを記述できない。
論文 参考訳(メタデータ) (2021-09-07T15:47:27Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。