論文の概要: Self-Paced Deep Regression Forests with Consideration on Ranking
Fairness
- arxiv url: http://arxiv.org/abs/2112.06455v1
- Date: Mon, 13 Dec 2021 07:20:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 03:33:21.933294
- Title: Self-Paced Deep Regression Forests with Consideration on Ranking
Fairness
- Title(参考訳): ランク付けフェアネスを考慮した自己更新深部回帰林
- Authors: Lili Pan, Mingming Meng, Yazhou Ren, Yali Zheng, Zenglin Xu
- Abstract要約: 本稿では,深層識別モデルのための自己評価パラダイムを提案する。
これは各例に付随する出力の確率とエントロピーに応じてノイズと表現不足の例を区別する。
我々の研究は、自衛体制構築の公正さを考慮に入れた、SPL文学における最初の論文である。
- 参考スコア(独自算出の注目度): 20.054757335914704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep discriminative models (DDMs), such as deep regression forests, deep
neural decision forests, have been extensively studied recently to solve
problems like facial age estimation, head pose estimation, gaze estimation and
so forth. Such problems are challenging in part because a large amount of
effective training data without noise and bias is often not available. While
some progress has been achieved through learning more discriminative features,
or reweighting samples, we argue what is more desirable is to learn gradually
to discriminate like human beings. Then, we resort to self-paced learning
(SPL). But a natural question arises: can self-paced regime lead DDMs to
achieve more robust and less biased solutions? A serious problem with SPL,
which is firstly discussed by this work, is it tends to aggravate the bias of
solutions, especially for obvious imbalanced data. To this end, this paper
proposes a new self-paced paradigm for deep discriminative model, which
distinguishes noisy and underrepresented examples according to the output
likelihood and entropy associated with each example, and tackle the fundamental
ranking problem in SPL from a new perspective: fairness. This paradigm is
fundamental, and could be easily combined with a variety of DDMs. Extensive
experiments on three computer vision tasks, such as facial age estimation, head
pose estimation and gaze estimation, demonstrate the efficacy of our paradigm.
To the best of our knowledge, our work is the first paper in the literature of
SPL that considers ranking fairness for self-paced regime construction.
- Abstract(参考訳): 深部回帰林、深部神経決定林などの深部識別モデル(DDM)は、顔年齢推定、頭部ポーズ推定、視線推定などの問題を解決するために近年広く研究されている。
このような問題は、ノイズやバイアスのない大量の効果的なトレーニングデータがしばしば利用できないため、課題となっている。
いくつかの進歩は、より差別的な特徴を学習したり、サンプルを再重み付けすることで達成されているが、より望ましいのは、徐々に人間のように差別を覚えることである。
次に,SPL(Self-paced Learning)を活用する。
DDMはより堅牢でバイアスの少ないソリューションを実現することができるのだろうか?
この研究で最初に議論されたSPLの深刻な問題は、特に不均衡なデータに対して、解のバイアスを増大させる傾向があることである。
そこで本研究では,各事例に関連付けられた出力確率とエントロピーに応じて,ノイズと過小表現の例を区別し,新たな視点からsplの基本ランキング問題に取り組む,深層判別モデルのための新しい自己ペースパラダイムを提案する。
このパラダイムは基本的なものであり、様々なDDMと簡単に組み合わせることができる。
顔年齢推定,頭部ポーズ推定,視線推定などの3つのコンピュータビジョンタスクに関する広範囲な実験を行い,このパラダイムの有効性を実証した。
我々の知識を最大限に活用するために、我々の研究は自給体制構築の公正さを考慮に入れたSPL文学における最初の論文である。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Stable and Causal Inference for Discriminative Self-supervised Deep
Visual Representations [10.41003719027387]
我々は、不安定な行動を説明するために、因果的観点から差別的自己監督手法を分析する。
我々のソリューションは、制御された合成データで線形変換を温めることを含む。
論文 参考訳(メタデータ) (2023-08-16T12:30:17Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Self-Paced Deep Regression Forests with Consideration on
Underrepresented Examples [19.316828378225665]
本論文は,森林の深部識別モデルを提案する。
新しい視点から、SPLの基本的なランク付けと選択の問題に取り組む。
顔年齢推定と頭部ポーズ推定という2つのコンピュータビジョンタスクの実験は,SPUDRFの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-03T10:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。