論文の概要: PML: Progressive Margin Loss for Long-tailed Age Classification
- arxiv url: http://arxiv.org/abs/2103.02140v1
- Date: Wed, 3 Mar 2021 02:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 00:40:00.255165
- Title: PML: Progressive Margin Loss for Long-tailed Age Classification
- Title(参考訳): PML:長尾年齢分類のためのプログレッシブマージン損失
- Authors: Zongyong Deng, Hao Liu, Yaoxing Wang, Chenyang Wang, Zekuan Yu,
Xuehong Sun
- Abstract要約: 非拘束顔面年齢分類のためのプログレッシブマージンロス(PML)アプローチを提案する。
私たちのPMLは、いくつかのマージンを強制することによって、年齢ラベルパターンを適応的に洗練することを目指しています。
- 参考スコア(独自算出の注目度): 9.020103398777653
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we propose a progressive margin loss (PML) approach for
unconstrained facial age classification. Conventional methods make strong
assumption on that each class owns adequate instances to outline its data
distribution, likely leading to bias prediction where the training samples are
sparse across age classes. Instead, our PML aims to adaptively refine the age
label pattern by enforcing a couple of margins, which fully takes in the
in-between discrepancy of the intra-class variance, inter-class variance and
class center. Our PML typically incorporates with the ordinal margin and the
variational margin, simultaneously plugging in the globally-tuned deep neural
network paradigm. More specifically, the ordinal margin learns to exploit the
correlated relationship of the real-world age labels. Accordingly, the
variational margin is leveraged to minimize the influence of head classes that
misleads the prediction of tailed samples. Moreover, our optimization carefully
seeks a series of indicator curricula to achieve robust and efficient model
training. Extensive experimental results on three face aging datasets
demonstrate that our PML achieves compelling performance compared to state of
the arts. Code will be made publicly.
- Abstract(参考訳): 本稿では,無拘束顔年齢分類のためのプログレッシブマージン損失(PML)手法を提案する。
従来の方法では、各クラスがデータ分布を概説する適切なインスタンスを所有していると強く仮定しており、トレーニングサンプルが年齢クラスに分散しているバイアス予測に繋がる可能性が高い。
その代わり, PML は, クラス内分散, クラス間分散, クラス中心の相互差を完全に取り除いて, 年齢ラベルのパターンを適応的に洗練することを目的としている。
私たちのPMLは通常、順序のマージンと変分マージンを組み込み、グローバルに調整されたディープニューラルネットワークパラダイムを同時にプラグインします。
より具体的には、序列マージンは実世界の年齢ラベルの相関関係を活用することを学習する。
したがって、ばらつきマージンを利用して、尾状サンプルの予測を誤解させるヘッドクラスの影響を最小限に抑えます。
さらに,厳密で効率的なモデルトレーニングを実現するために,一連の指標カリキュラムを慎重に検討する。
3つの顔の老化データセットに関する広範な実験結果は、当社のPMLが最先端の技術と比較して魅力的なパフォーマンスを達成していることを示しています。
コードは公開されます。
関連論文リスト
- Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Two-stage Training for Learning from Label Proportions [18.78148397471913]
ラベルパーセンテージ(LLP)からの学習は、グループ化されたトレーニングデータにおいてラベルパーセンテージを持つインスタンスレベルの分類器を学習することを目的としている。
ラベルノイズをさらに低減するために,混合戦略と対称クロスエントロピーを導入する。
我々のフレームワークはモデルに依存しず、広範な実験において魅力的なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2021-05-22T03:55:35Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。