論文の概要: Unimodal-Concentrated Loss: Fully Adaptive Label Distribution Learning
for Ordinal Regression
- arxiv url: http://arxiv.org/abs/2204.00309v1
- Date: Fri, 1 Apr 2022 09:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:43:47.246339
- Title: Unimodal-Concentrated Loss: Fully Adaptive Label Distribution Learning
for Ordinal Regression
- Title(参考訳): 一様集中損失:正規回帰のための完全適応ラベル分布学習
- Authors: Qiang Li, Jingjing Wang, Zhaoliang Yao, Yachun Li, Pengju Yang,
Jingwei Yan, Chunmao Wang, Shiliang Pu
- Abstract要約: 既存のALDLアルゴリズムは、順序回帰の本質的な性質を十分に活用していないと論じる。
完全適応型ラベル分布学習(unimodal-concentated loss)のための新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 32.35098925000738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from a label distribution has achieved promising results on ordinal
regression tasks such as facial age and head pose estimation wherein, the
concept of adaptive label distribution learning (ALDL) has drawn lots of
attention recently for its superiority in theory. However, compared with the
methods assuming fixed form label distribution, ALDL methods have not achieved
better performance. We argue that existing ALDL algorithms do not fully exploit
the intrinsic properties of ordinal regression. In this paper, we emphatically
summarize that learning an adaptive label distribution on ordinal regression
tasks should follow three principles. First, the probability corresponding to
the ground-truth should be the highest in label distribution. Second, the
probabilities of neighboring labels should decrease with the increase of
distance away from the ground-truth, i.e., the distribution is unimodal. Third,
the label distribution should vary with samples changing, and even be distinct
for different instances with the same label, due to the different levels of
difficulty and ambiguity. Under the premise of these principles, we propose a
novel loss function for fully adaptive label distribution learning, namely
unimodal-concentrated loss. Specifically, the unimodal loss derived from the
learning to rank strategy constrains the distribution to be unimodal.
Furthermore, the estimation error and the variance of the predicted
distribution for a specific sample are integrated into the proposed
concentrated loss to make the predicted distribution maximize at the
ground-truth and vary according to the predicting uncertainty. Extensive
experimental results on typical ordinal regression tasks including age and head
pose estimation, show the superiority of our proposed unimodal-concentrated
loss compared with existing loss functions.
- Abstract(参考訳): ラベル分布からの学習は、顔年齢や頭部ポーズ推定などの順序回帰タスクにおいて有望な成果を上げており、近年、アダプティブラベル分布学習(ALDL)の概念は理論上の優位性のために多くの注目を集めている。
しかし,固定形ラベル分布を仮定する手法と比較して,ALDL法は性能が良くない。
既存のALDLアルゴリズムは順序回帰の本質的な性質を完全に活用していない。
本稿では,順序回帰課題における適応ラベル分布の学習が3つの原則に従うべきであることを,本論で要約する。
第一に、接地関係に対応する確率はラベル分布において最高であるべきである。
第二に、隣接するラベルの確率は、接地からの距離の増加に伴い減少すべきであり、すなわち分布は不定値である。
第三に、ラベルの分布はサンプルの変化によって異なり、異なる難易度とあいまいさのために同じラベルを持つ異なるインスタンスで区別されることもある。
これらの原理を前提として,完全適応ラベル分布学習のための新しい損失関数,すなわちユニモーダル集中損失を提案する。
具体的には,学習者のランク付け戦略から得られる一元的損失は,一元的分布を制約する。
さらに, 予測分布の予測誤差と予測分布のばらつきを, 提案した集中損失に統合し, 予測分布を起点として最大化し, 予測の不確実性に応じて変化させる。
年齢や頭部ポーズ推定を含む典型的な順序回帰タスクに関する広範囲な実験結果から,提案する単調集中損失は,既存損失関数と比較して優れていることが示された。
関連論文リスト
- Theory-inspired Label Shift Adaptation via Aligned Distribution Mixture [21.494268411607766]
ADM(Aligned Distribution Mixture)という名称の革新的なラベルシフトフレームワークを提案する。
本フレームワークでは,分類器学習プロセスに修正を加えることで,4つの典型的なラベルシフト手法を改良する。
提案手法の特異性を考慮し,効率的な二段階最適化戦略を開発する。
論文 参考訳(メタデータ) (2024-11-04T12:51:57Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Tackling Instance-Dependent Label Noise with Dynamic Distribution
Calibration [18.59803726676361]
インスタンスに依存したラベルノイズは現実的だが、ラベルの破損プロセスはインスタンスに直接依存する。
これは、トレーニングの分布とテストデータの間に深刻な分布シフトを引き起こし、訓練されたモデルの一般化を損なう。
本稿では,インスタンス依存ラベル雑音を用いた学習における分布変化に対処するために,動的分布校正戦略を採用する。
論文 参考訳(メタデータ) (2022-10-11T03:50:52Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Invariance Principle Meets Information Bottleneck for
Out-of-Distribution Generalization [77.24152933825238]
線形分類タスクには分布シフトの強い制限が必要であり、そうでなければ OOD の一般化は不可能であることを示す。
不変な特徴がラベルに関するすべての情報をキャプチャし、そうでなければ既存の成功を保っている場合、情報ボトルネックの形式が重要な障害に対処するのに役立つことを証明します。
論文 参考訳(メタデータ) (2021-06-11T20:42:27Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。