論文の概要: A Flatter Loss for Bias Mitigation in Cross-dataset Facial Age
Estimation
- arxiv url: http://arxiv.org/abs/2010.10368v2
- Date: Mon, 26 Oct 2020 19:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:11:37.945369
- Title: A Flatter Loss for Bias Mitigation in Cross-dataset Facial Age
Estimation
- Title(参考訳): クロスデータセット顔年齢推定におけるバイアス軽減のためのフラッター損失
- Authors: Ali Akbari, Muhammad Awais, Zhen-Hua Feng, Ammarah Farooq and Josef
Kittler
- Abstract要約: 年齢推定ベンチマークのためのクロスデータセットプロトコルを提唱する。
本稿では,ニューラルネットワークのトレーニングに有効な新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 37.107335288543624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The most existing studies in the facial age estimation assume training and
test images are captured under similar shooting conditions. However, this is
rarely valid in real-world applications, where training and test sets usually
have different characteristics. In this paper, we advocate a cross-dataset
protocol for age estimation benchmarking. In order to improve the cross-dataset
age estimation performance, we mitigate the inherent bias caused by the
learning algorithm itself. To this end, we propose a novel loss function that
is more effective for neural network training. The relative smoothness of the
proposed loss function is its advantage with regards to the optimisation
process performed by stochastic gradient descent (SGD). Compared with existing
loss functions, the lower gradient of the proposed loss function leads to the
convergence of SGD to a better optimum point, and consequently a better
generalisation. The cross-dataset experimental results demonstrate the
superiority of the proposed method over the state-of-the-art algorithms in
terms of accuracy and generalisation capability.
- Abstract(参考訳): 顔年齢推定における最も既存の研究は、訓練およびテスト画像が同様の射撃条件下で撮影されるという仮定である。
しかし、トレーニングとテストセットが通常異なる特性を持つ現実のアプリケーションでは、これが有効であることは滅多にない。
本稿では,年齢推定ベンチマークのためのクロスデータセットプロトコルを提案する。
クロスデータセットの年齢推定性能を向上させるために,学習アルゴリズム自体が生み出す固有のバイアスを軽減する。
そこで本稿では,ニューラルネットワークのトレーニングに有効な新しい損失関数を提案する。
提案する損失関数の相対的平滑性は,確率勾配降下(sgd)による最適化過程において有利である。
既存の損失関数と比較して、提案された損失関数の勾配の低さは、SGDの収束をより良い最適点に導き、その結果、より良い一般化をもたらす。
クロスデータセット実験により,提案手法が最先端アルゴリズムよりも精度と一般化能力に優れていることを示す。
関連論文リスト
- Gradient Descent Efficiency Index [0.0]
本研究では,各イテレーションの有効性を定量化するために,新しい効率指標Ekを導入する。
提案した測定基準は、誤差の相対的変化と繰り返し間の損失関数の安定性の両方を考慮に入れている。
Ekは、機械学習アプリケーションにおける最適化アルゴリズムの選択とチューニングにおいて、より詳細な決定を導く可能性がある。
論文 参考訳(メタデータ) (2024-10-25T10:22:22Z) - Reduced Jeffries-Matusita distance: A Novel Loss Function to Improve
Generalization Performance of Deep Classification Models [0.0]
本稿では,深層分類モデルの学習における損失関数として,Reduced Jeffries-Matusitaという距離を導入する。
その結果、新しい距離測定はトレーニングプロセスを著しく安定化させ、一般化能力を高め、精度とF1スコアの指標におけるモデルの性能を向上させることを示した。
論文 参考訳(メタデータ) (2024-03-13T10:51:38Z) - Random Linear Projections Loss for Hyperplane-Based Optimization in Neural Networks [22.348887008547653]
この研究はRandom Linear Projections (RLP)損失を導入し、これはデータ内の幾何学的関係を利用してトレーニング効率を向上させる新しいアプローチである。
ベンチマークデータセットと合成例を用いて実施した経験的評価では、従来の損失関数でトレーニングされたニューラルネットワークは、従来の損失関数でトレーニングされたニューラルネットワークよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2023-11-21T05:22:39Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Adversarially Robust Learning via Entropic Regularization [31.6158163883893]
我々は、敵対的に堅牢なディープニューラルネットワークを訓練するための新しいアルゴリズムATENTを提案する。
我々の手法は、頑健な分類精度の観点から、競争力(またはより良い)性能を達成する。
論文 参考訳(メタデータ) (2020-08-27T18:54:43Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - The Break-Even Point on Optimization Trajectories of Deep Neural
Networks [64.7563588124004]
この軌道上の「破滅的な」点の存在を論じる。
トレーニングの初期段階での大きな学習率を用いることで、勾配のばらつきが軽減されることを示す。
また, バッチ正規化層を有するニューラルネットワークにおいても, 低学習率を用いることで損失面の条件が悪くなることを示す。
論文 参考訳(メタデータ) (2020-02-21T22:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。