論文の概要: General vs. Long-Tailed Age Estimation: An Approach to Kill Two Birds
with One Stone
- arxiv url: http://arxiv.org/abs/2307.10129v1
- Date: Wed, 19 Jul 2023 16:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 13:20:14.420724
- Title: General vs. Long-Tailed Age Estimation: An Approach to Kill Two Birds
with One Stone
- Title(参考訳): general vs. long-tailed age estimation: an approach to kill two birds with one stone
- Authors: Zenghao Bao, Zichang Tan, Jun Li, Jun Wan, Xibo Ma, Zhen Lei
- Abstract要約: 本稿では, GLAE という, シンプルで効果的で柔軟な訓練パラダイムを提案する。
私たちのGLAEはMorph IIを驚くほど改善し、それぞれ1.14年と1.27年で最低のMAEとCMAEに達した。
- 参考スコア(独自算出の注目度): 48.849311629912734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial age estimation has received a lot of attention for its diverse
application scenarios. Most existing studies treat each sample equally and aim
to reduce the average estimation error for the entire dataset, which can be
summarized as General Age Estimation. However, due to the long-tailed
distribution prevalent in the dataset, treating all samples equally will
inevitably bias the model toward the head classes (usually the adult with a
majority of samples). Driven by this, some works suggest that each class should
be treated equally to improve performance in tail classes (with a minority of
samples), which can be summarized as Long-tailed Age Estimation. However,
Long-tailed Age Estimation usually faces a performance trade-off, i.e.,
achieving improvement in tail classes by sacrificing the head classes. In this
paper, our goal is to design a unified framework to perform well on both tasks,
killing two birds with one stone. To this end, we propose a simple, effective,
and flexible training paradigm named GLAE, which is two-fold. Our GLAE provides
a surprising improvement on Morph II, reaching the lowest MAE and CMAE of 1.14
and 1.27 years, respectively. Compared to the previous best method, MAE dropped
by up to 34%, which is an unprecedented improvement, and for the first time,
MAE is close to 1 year old. Extensive experiments on other age benchmark
datasets, including CACD, MIVIA, and Chalearn LAP 2015, also indicate that GLAE
outperforms the state-of-the-art approaches significantly.
- Abstract(参考訳): 顔の年齢推定は、様々なアプリケーションシナリオで多くの注目を集めています。
既存の研究の多くは、各サンプルを等しく扱い、データセット全体の平均推定誤差を減らし、一般年齢推定(General Age Estimation)とまとめることができる。
しかしながら、データセットに広く見られるロングテール分布のため、すべてのサンプルを等しく扱うことは、必然的にモデルがヘッドクラス(通常、大多数のサンプルを持つ大人)に偏る。
これに基づいて、いくつかの研究は、各クラスが尾のクラス(少数のサンプルを含む)のパフォーマンスを改善するために等しく扱われるべきであることを示唆している。
しかし、ロングテール年齢推定は、通常、パフォーマンス上のトレードオフ、すなわち、ヘッドクラスを犠牲にしてテールクラスの改善を達成する。
本稿の目的は,両タスクでうまく機能する統一フレームワークをデザインし,一つの石で2羽の鳥を殺傷させることである。
この目的のために, GLAE という, シンプルで効果的で柔軟な訓練パラダイムを提案する。
私たちのGLAEはMorph IIを驚くほど改善し、それぞれ1.14年と1.27年で最低のMAEとCMAEに達した。
前回のベストメソッドと比較して、MAEは前例のない改善であり、MAEは1歳近くである。
CACD、MIVIA、Chalearn LAP 2015など、他の年齢ベンチマークデータセットに対する大規模な実験は、GLAEが最先端のアプローチを大幅に上回っていることを示している。
関連論文リスト
- From Age Estimation to Age-Invariant Face Recognition: Generalized Age Feature Extraction Using Order-Enhanced Contrastive Learning [23.817867981093382]
一般的な年齢特徴抽出は、年齢に関連する顔分析タスクに不可欠である。
我々は,異なるデータセットやシナリオ間のドメインギャップを最小限に抑えるために,秩序強化コントラスト学習(OrdCon)を提案する。
提案手法は,各種ベンチマークデータセットの最先端手法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2025-01-03T11:23:52Z) - Gradient-Aware Logit Adjustment Loss for Long-tailed Classifier [30.931850375858573]
実世界の環境では、データは長い尾の分布に従い、ヘッドクラスはテールクラスよりもはるかに多くのトレーニングサンプルを含む。
本稿では、最適化プロセスのバランスをとるために、累積勾配に基づいてロジットを調整するグラディエント・アウェア・ロジット調整(GALA)の損失を提案する。
提案手法は,一般的なロングテール認識ベンチマークデータセットにおいて,48.5%,41.4%,73.3%のTop-1精度を実現する。
論文 参考訳(メタデータ) (2024-03-14T02:21:01Z) - Boosting Long-tailed Object Detection via Step-wise Learning on
Smooth-tail Data [60.64535309016623]
カテゴリの長い尾の分布がスムーズに減衰し、ヘッドクラスに対するバイアスを補正するスムーズなテールデータを構築する。
我々は,ヘッドクラス支配的なリプレイデータに基づいて,事前学習したモデルのクラスに依存しないモジュールを微調整する。
我々は、すべてのカテゴリの正確な検出を保証するため、トップクラスエキスパートモデルから知識を伝達しながら、テールクラス支配的なリプレイデータ上で統一モデルを訓練する。
論文 参考訳(メタデータ) (2023-05-22T08:53:50Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Evaluating Parameter Efficient Learning for Generation [32.52577462253145]
PERMとファインタニングを3つの新しい視点から比較する。
その結果、ドメイン内設定(a)では、PERMsがより少ないサンプルでトレーニングする際の微調整よりも優れた性能を示し、(b)より大きなPLMが存在することがわかった。
また、世代ごとの忠実度を比較し、特に小さなトレーニングセットにおいて、PERMsが微調整よりも忠実度を最大6%向上できることを示す。
論文 参考訳(メタデータ) (2022-10-25T00:14:48Z) - Strict baselines for Covid-19 forecasting and ML perspective for USA and
Russia [105.54048699217668]
Covid-19は、2年間にわたって蓄積されたデータセットを収集し、予測分析に使用できるようにする。
本研究は、米国とロシアの2カ国の地域データに基づいて、Covid-19の拡散のダイナミクスを予測するための様々な種類の方法に関する一貫した研究結果である。
論文 参考訳(メタデータ) (2022-07-15T18:21:36Z) - LAE : Long-tailed Age Estimation [52.5745217752147]
まず、簡単な標準ベースラインを定式化し、事前トレーニング、データ拡張、モデルアーキテクチャなどのトリックを収集することで、はるかに強力なベースラインを構築します。
標準ベースラインと比較して,提案手法は推定誤差を著しく低減する。
本稿では,Long-tailed Age Estimation (LAE) という2段階の学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-25T09:05:44Z) - PML: Progressive Margin Loss for Long-tailed Age Classification [9.020103398777653]
非拘束顔面年齢分類のためのプログレッシブマージンロス(PML)アプローチを提案する。
私たちのPMLは、いくつかのマージンを強制することによって、年齢ラベルパターンを適応的に洗練することを目指しています。
論文 参考訳(メタデータ) (2021-03-03T02:47:09Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。