論文の概要: No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems
- arxiv url: http://arxiv.org/abs/2011.12945v2
- Date: Sun, 10 Apr 2022 23:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:10:17.439803
- Title: No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems
- Title(参考訳): 下位クラスなし:粗粒分類問題における細粒ロバスト性
- Authors: Nimit S. Sohoni, Jared A. Dunnmon, Geoffrey Angus, Albert Gu,
Christopher R\'e
- Abstract要約: 実世界の分類タスクでは、各クラスは、しばしば複数のよりきめ細かい「サブクラス」を含む。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
- 参考スコア(独自算出の注目度): 20.253644336965042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world classification tasks, each class often comprises multiple
finer-grained "subclasses." As the subclass labels are frequently unavailable,
models trained using only the coarser-grained class labels often exhibit highly
variable performance across different subclasses. This phenomenon, known as
hidden stratification, has important consequences for models deployed in
safety-critical applications such as medicine. We propose GEORGE, a method to
both measure and mitigate hidden stratification even when subclass labels are
unknown. We first observe that unlabeled subclasses are often separable in the
feature space of deep neural networks, and exploit this fact to estimate
subclass labels for the training data via clustering techniques. We then use
these approximate subclass labels as a form of noisy supervision in a
distributionally robust optimization objective. We theoretically characterize
the performance of GEORGE in terms of the worst-case generalization error
across any subclass. We empirically validate GEORGE on a mix of real-world and
benchmark image classification datasets, and show that our approach boosts
worst-case subclass accuracy by up to 22 percentage points compared to standard
training techniques, without requiring any prior information about the
subclasses.
- Abstract(参考訳): 現実世界の分類タスクでは、各クラスは複数のより細かい「サブクラス」を含むことが多い。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
隠れ層化として知られるこの現象は、医療などの安全クリティカルな応用に展開されるモデルに重要な影響をもたらす。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
まず、ディープニューラルネットワークの特徴空間においてラベルなしのサブクラスはしばしば分離可能であることを観察し、この事実を利用してクラスタリング技術を用いてトレーニングデータのサブクラスラベルを推定する。
次に,これらの近似サブクラスラベルを,分布的ロバストな最適化目標におけるノイズの監視の一形態として用いる。
我々はGEORGEの性能を,どのサブクラスに対しても最悪の一般化誤差で特徴づける。
我々はgeorgeを実世界とベンチマーク画像分類データセットの混合について実証的に検証し,本手法が,サブクラスに関する事前情報を必要とせずに,通常のトレーニング手法と比較して最大22ポイント高い精度でサブクラス精度を向上させることを示した。
関連論文リスト
- Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Efficient Subclass Segmentation in Medical Images [3.383033695275859]
コストを削減するための実現可能な方法の1つは、補体として限定されたきめ細かいアノテーションを使用しながら、粗い粒度のスーパークラスラベルでアノテートすることである。
セマンティックセグメンテーションタスクにおけるきめ細かいサブクラスの効率的な学習に関する研究が不足している。
提案手法は,サブクラスアノテーションが限定された完全サブクラスアノテーションと十分なスーパークラスアノテーションで訓練されたモデルに匹敵する精度を実現する。
論文 参考訳(メタデータ) (2023-07-01T07:39:08Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Latent Preserving Generative Adversarial Network for Imbalance
classification [17.992830267031877]
エンド・ツー・エンドの深層生成分類器を提案する。
本稿では,ジェネレータの遅延空間を予め保持するドメイン制約オートエンコーダを提案する。
3つの異なる多クラス不均衡問題と最先端手法との比較実験を行った。
論文 参考訳(メタデータ) (2022-09-04T07:49:27Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。