論文の概要: No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems
- arxiv url: http://arxiv.org/abs/2011.12945v2
- Date: Sun, 10 Apr 2022 23:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:10:17.439803
- Title: No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems
- Title(参考訳): 下位クラスなし:粗粒分類問題における細粒ロバスト性
- Authors: Nimit S. Sohoni, Jared A. Dunnmon, Geoffrey Angus, Albert Gu,
Christopher R\'e
- Abstract要約: 実世界の分類タスクでは、各クラスは、しばしば複数のよりきめ細かい「サブクラス」を含む。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
- 参考スコア(独自算出の注目度): 20.253644336965042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world classification tasks, each class often comprises multiple
finer-grained "subclasses." As the subclass labels are frequently unavailable,
models trained using only the coarser-grained class labels often exhibit highly
variable performance across different subclasses. This phenomenon, known as
hidden stratification, has important consequences for models deployed in
safety-critical applications such as medicine. We propose GEORGE, a method to
both measure and mitigate hidden stratification even when subclass labels are
unknown. We first observe that unlabeled subclasses are often separable in the
feature space of deep neural networks, and exploit this fact to estimate
subclass labels for the training data via clustering techniques. We then use
these approximate subclass labels as a form of noisy supervision in a
distributionally robust optimization objective. We theoretically characterize
the performance of GEORGE in terms of the worst-case generalization error
across any subclass. We empirically validate GEORGE on a mix of real-world and
benchmark image classification datasets, and show that our approach boosts
worst-case subclass accuracy by up to 22 percentage points compared to standard
training techniques, without requiring any prior information about the
subclasses.
- Abstract(参考訳): 現実世界の分類タスクでは、各クラスは複数のより細かい「サブクラス」を含むことが多い。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
隠れ層化として知られるこの現象は、医療などの安全クリティカルな応用に展開されるモデルに重要な影響をもたらす。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
まず、ディープニューラルネットワークの特徴空間においてラベルなしのサブクラスはしばしば分離可能であることを観察し、この事実を利用してクラスタリング技術を用いてトレーニングデータのサブクラスラベルを推定する。
次に,これらの近似サブクラスラベルを,分布的ロバストな最適化目標におけるノイズの監視の一形態として用いる。
我々はGEORGEの性能を,どのサブクラスに対しても最悪の一般化誤差で特徴づける。
我々はgeorgeを実世界とベンチマーク画像分類データセットの混合について実証的に検証し,本手法が,サブクラスに関する事前情報を必要とせずに,通常のトレーニング手法と比較して最大22ポイント高い精度でサブクラス精度を向上させることを示した。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - Exploration of Class Center for Fine-Grained Visual Classification [7.120809788357261]
きめ細かい視覚分類は、クラス内差と微妙なクラス間差のために難しい課題である。
本稿では,複数のクラス中心制約とクラス中心ラベル生成からなるクラス中心探索という損失関数を提案する。
本手法は,損失関数として既存の細粒度視覚分類手法と容易に統合でき,トレーニングコストをわずかに抑えることで,さらに優れた性能を向上することができる。
論文 参考訳(メタデータ) (2024-07-05T04:11:09Z) - Embracing Diversity: Interpretable Zero-shot classification beyond one vector per class [16.101460010750458]
クラス内の多様性を表現するために、ゼロショット分類は単一のベクトルを超えるべきであると論じる。
そこで本研究では,ゼロショット設定において,推論属性を用いたクラス内の多様性のエンコードと説明を行う手法を提案する。
提案手法は,大規模なデータセット群に対して,標準ゼロショット分類よりも一貫して優れることがわかった。
論文 参考訳(メタデータ) (2024-04-25T16:29:06Z) - Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
本稿では,ラベルスキュード・フェデレーション学習の新しいアプローチであるFedVLSを紹介する。
空のクラス蒸留とロジット抑制を同時に統合する。
FedVLSの有効性を検証する実験は、従来のSOTA(State-of-the-art)法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Latent Preserving Generative Adversarial Network for Imbalance
classification [17.992830267031877]
エンド・ツー・エンドの深層生成分類器を提案する。
本稿では,ジェネレータの遅延空間を予め保持するドメイン制約オートエンコーダを提案する。
3つの異なる多クラス不均衡問題と最先端手法との比較実験を行った。
論文 参考訳(メタデータ) (2022-09-04T07:49:27Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。