論文の概要: Self-Paced Deep Regression Forests with Consideration on
Underrepresented Examples
- arxiv url: http://arxiv.org/abs/2004.01459v4
- Date: Thu, 6 Aug 2020 01:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:37:24.376909
- Title: Self-Paced Deep Regression Forests with Consideration on
Underrepresented Examples
- Title(参考訳): 過小表現例を考慮した自閉型深層回帰林
- Authors: Lili Pan, Shijie Ai, Yazhou Ren and Zenglin Xu
- Abstract要約: 本論文は,森林の深部識別モデルを提案する。
新しい視点から、SPLの基本的なランク付けと選択の問題に取り組む。
顔年齢推定と頭部ポーズ推定という2つのコンピュータビジョンタスクの実験は,SPUDRFの有効性を実証している。
- 参考スコア(独自算出の注目度): 19.316828378225665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep discriminative models (e.g. deep regression forests, deep neural
decision forests) have achieved remarkable success recently to solve problems
such as facial age estimation and head pose estimation. Most existing methods
pursue robust and unbiased solutions either through learning discriminative
features, or reweighting samples. We argue what is more desirable is learning
gradually to discriminate like our human beings, and hence we resort to
self-paced learning (SPL). Then, a natural question arises: can self-paced
regime lead deep discriminative models to achieve more robust and less biased
solutions? To this end, this paper proposes a new deep discriminative
model--self-paced deep regression forests with consideration on
underrepresented examples (SPUDRFs). It tackles the fundamental ranking and
selecting problem in SPL from a new perspective: fairness. This paradigm is
fundamental and could be easily combined with a variety of deep discriminative
models (DDMs). Extensive experiments on two computer vision tasks, i.e., facial
age estimation and head pose estimation, demonstrate the efficacy of SPUDRFs,
where state-of-the-art performances are achieved.
- Abstract(参考訳): 深層判別モデル(例えば、深層回帰林、深層神経決定林)は、近年、顔年齢推定や頭部ポーズ推定などの問題を解決するために顕著な成功を収めている。
既存の手法の多くは、識別的特徴の学習やサンプルの再重み付けを通じて、堅牢で偏りのないソリューションを追求している。
より望ましいのは、徐々に人間のように差別化を学習することであり、それゆえ、自己評価学習(SPL)に頼っている、と私たちは主張する。
自己評価された体制は、より堅牢でバイアスの少ないソリューションを達成するために、深い差別的モデルを導くことができるか?
この目的のために,本論文では,低表示例(spudrfs)に着目した,新しい深層判別モデル-自己ペーシング型深層回帰林を提案する。
新しい観点から、SPLの基本的なランク付けと選択の問題に取り組む。
このパラダイムは基本であり、様々な深層判別モデル(ddm)と簡単に組み合わせることができる。
顔の年齢推定と頭部ポーズ推定という2つのコンピュータビジョンタスクに対する大規模な実験により,SPUDRFの有効性が実証された。
関連論文リスト
- One fish, two fish, but not the whole sea: Alignment reduces language models' conceptual diversity [2.5975241792179378]
研究者は大規模言語モデル(LLM)を人間の行動研究の代替として使用することを提案した。
トレーニング後のアライメント(RLHFまたはRLAIF)がモデルの内部多様性に影響を及ぼすかどうかが議論されている。
我々は、シミュレーションされた個体の内部変動と集団レベルの変動を関連づけることで、合成合成LLMの「人口」の概念的多様性を測定する新しい方法を用いる。
論文 参考訳(メタデータ) (2024-11-07T04:38:58Z) - Hacking a surrogate model approach to XAI [49.1574468325115]
識別されたサブグループがブラックボックスADMシステムから肯定的な決定を下さない場合でも、対応するグループメンバーシップの問題は、必要に応じて低いレベルまで押し下げることができることを示す。
我々のアプローチは、他の代理モデルに容易に一般化できる。
論文 参考訳(メタデータ) (2024-06-24T13:18:02Z) - Deep Bayesian Active Learning for Preference Modeling in Large Language Models [84.817400962262]
本稿では,BAL-PM(Bayesian Active Learner for Preference Modeling)を提案する。
BAL-PMは2つの人気のある人間の嗜好データセットにおいて、好みラベルを33%から68%少なくし、以前のベイズ買収ポリシーを超えている。
我々の実験では、BAL-PMは2つの人気のある人選好データセットにおいて33%から68%の選好ラベルを必要としており、ベイズ買収ポリシーを上回ります。
論文 参考訳(メタデータ) (2024-06-14T13:32:43Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Deep Non-Monotonic Reasoning for Visual Abstract Reasoning Tasks [3.486683381782259]
本稿では,視覚的抽象的推論課題を解決するための非単調な計算手法を提案する。
このアプローチを使ってディープラーニングモデルを実装し、RavenのProgressive MatricesテストにインスパイアされたデータセットであるRAVENデータセットでそれをテストしました。
論文 参考訳(メタデータ) (2023-02-08T16:35:05Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Self-Paced Deep Regression Forests with Consideration on Ranking
Fairness [20.054757335914704]
本稿では,深層識別モデルのための自己評価パラダイムを提案する。
これは各例に付随する出力の確率とエントロピーに応じてノイズと表現不足の例を区別する。
我々の研究は、自衛体制構築の公正さを考慮に入れた、SPL文学における最初の論文である。
論文 参考訳(メタデータ) (2021-12-13T07:20:21Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。