論文の概要: SHaSaM: Submodular Hard Sample Mining for Fair Facial Attribute Recognition
- arxiv url: http://arxiv.org/abs/2602.05162v1
- Date: Thu, 05 Feb 2026 00:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.683642
- Title: SHaSaM: Submodular Hard Sample Mining for Fair Facial Attribute Recognition
- Title(参考訳): SHaSaM: 公平な顔属性認識のためのサブモジュール型ハードサンプルマイニング
- Authors: Anay Majee, Rishabh Iyer,
- Abstract要約: ディープニューラルネットワークは、モデルトレーニング中に注釈付きデータから社会的、人口統計学的バイアスを継承することが多く、不公平な予測につながる。
本研究では, 等価性に基づく表現学習をサブモジュール型ハードサンプルマイニング問題としてモデル化する新しい手法であるSHaSaMを提案する。
SHaSaMは最先端の結果を達成し、モデルフェアネス(等化オッド)が最大2.7ポイント向上し、精度が3.5%向上した。
- 参考スコア(独自算出の注目度): 4.483276453936335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks often inherit social and demographic biases from annotated data during model training, leading to unfair predictions, especially in the presence of sensitive attributes like race, age, gender etc. Existing methods fall prey to the inherent data imbalance between attribute groups and inadvertently emphasize on sensitive attributes, worsening unfairness and performance. To surmount these challenges, we propose SHaSaM (Submodular Hard Sample Mining), a novel combinatorial approach that models fairness-driven representation learning as a submodular hard-sample mining problem. Our two-stage approach comprises of SHaSaM-MINE, which introduces a submodular subset selection strategy to mine hard positives and negatives - effectively mitigating data imbalance, and SHaSaM-LEARN, which introduces a family of combinatorial loss functions based on Submodular Conditional Mutual Information to maximize the decision boundary between target classes while minimizing the influence of sensitive attributes. This unified formulation restricts the model from learning features tied to sensitive attributes, significantly enhancing fairness without sacrificing performance. Experiments on CelebA and UTKFace demonstrate that SHaSaM achieves state-of-the-art results, with up to 2.7 points improvement in model fairness (Equalized Odds) and a 3.5% gain in Accuracy, within fewer epochs as compared to existing methods.
- Abstract(参考訳): ディープニューラルネットワークは、モデルトレーニング中に注釈付きデータから社会的、人口統計学的バイアスを継承することが多く、特に人種、年齢、性別などのセンシティブな属性が存在する場合、不公平な予測につながる。
既存の方法は、属性グループ間の固有のデータ不均衡に陥り、不公平さとパフォーマンスを悪化させる。
これらの課題を克服するために, フェアネス駆動型表現学習をサブモジュール型ハードサンプルマイニング問題としてモデル化した, SHaSaM (Submodular Hard Sample Mining) を提案する。
我々の2段階のアプローチは、ハードポジティと負を効果的に緩和するサブモジュールサブセット選択戦略を導入するSHaSaM-MINEと、サブモジュール条件相互情報に基づく組合せ損失関数のファミリーを導入するSHaSaM-LEARNにより、ターゲットクラス間の決定境界を最大化し、感度属性の影響を最小限に抑える。
この統一的な定式化は、モデルがセンシティブな属性に結びついている学習特徴を制限し、性能を犠牲にすることなく公平性を著しく向上させる。
CelebAとUTKFaceの実験は、SHaSaMが最先端の結果を達成し、モデルフェアネス(等化オッド)が最大2.7ポイント向上し、精度が3.5%向上したことを示した。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - MAB Optimizer for Estimating Math Question Difficulty via Inverse CV without NLP [3.9566483499208633]
本研究では,強化学習に基づくマルチアーメッドバンド(MAB)フレームワークであるEducands(APME)のパッシブ対策のアプローチを紹介する。
変動の逆係数をリスク調整計量として活用することにより、モデルは適応的評価のための説明可能でスケーラブルなメカニズムを提供する。
論文 参考訳(メタデータ) (2025-08-26T13:23:31Z) - Conformalized Exceptional Model Mining: Telling Where Your Model Performs (Not) Well [31.013018198280506]
本稿では,新しいフレームワークであるConformalized Exceptional Model Miningを紹介する。
コンフォーマル予測の厳密さと例外モデルマイニングの説明力を組み合わせる。
我々は、共形予測の厳密なカバレッジ保証を通じて不確実性を定量化する新しいモデルクラスmSMoPEを開発する。
論文 参考訳(メタデータ) (2025-08-21T13:43:14Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Mining Minority-class Examples With Uncertainty Estimates [102.814407678425]
現実世界では、オブジェクトの発生頻度は自然にスキューされ、長い尾のクラス分布を形成する。
これらの課題を克服する効果的な、しかし簡単なアプローチを提案する。
我々のフレームワークは、抑制されたテールクラスのアクティベーションを強化し、その後、1クラスのデータ中心アプローチを使用して、テールクラスの例を効果的に識別する。
論文 参考訳(メタデータ) (2021-12-15T02:05:02Z) - Generic Semi-Supervised Adversarial Subject Translation for Sensor-Based
Human Activity Recognition [6.2997667081978825]
本稿では,人間活動認識における半教師付きドメイン適応のための,新しい汎用的で堅牢なアプローチを提案する。
本手法は,対象対象対象と対象対象対象対象からのみ注釈付きサンプルからの知識を活用することにより,問題点に対処するための敵対的枠組みの利点を生かしている。
その結果,提案手法が最先端手法に対して有効であることを示し,オポチュニティ,LISSI,PAMAP2データセットの高レベルのアクティビティ認識指標を最大13%,4%,13%改善した。
論文 参考訳(メタデータ) (2020-11-11T12:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。