論文の概要: Task-tailored Pre-processing: Fair Downstream Supervised Learning
- arxiv url: http://arxiv.org/abs/2601.11897v1
- Date: Sat, 17 Jan 2026 03:49:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.363272
- Title: Task-tailored Pre-processing: Fair Downstream Supervised Learning
- Title(参考訳): タスク調整前処理:フェアダウンストリーム監視学習
- Authors: Jinwon Sohn, Guang Lin, Qifan Song,
- Abstract要約: 教師付き学習のためのアルゴリズムフェアネスを研究し、データフェアネスアプローチが過度に強い正規化を課すと主張している。
これにより、教師付き学習に適した、新しい事前処理アプローチを考案する動機付けになります。
- 参考スコア(独自算出の注目度): 14.038820621511588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning has recently attracted various communities to mitigate discrimination against certain societal groups in data-driven tasks. For fair supervised learning, particularly in pre-processing, there have been two main categories: data fairness and task-tailored fairness. The former directly finds an intermediate distribution among the groups, independent of the type of the downstream model, so a learned downstream classification/regression model returns similar predictive scores to individuals inputting the same covariates irrespective of their sensitive attributes. The latter explicitly takes the supervised learning task into account when constructing the pre-processing map. In this work, we study algorithmic fairness for supervised learning and argue that the data fairness approaches impose overly strong regularization from the perspective of the HGR correlation. This motivates us to devise a novel pre-processing approach tailored to supervised learning. We account for the trade-off between fairness and utility in obtaining the pre-processing map. Then we study the behavior of arbitrary downstream supervised models learned on the transformed data to find sufficient conditions to guarantee their fairness improvement and utility preservation. To our knowledge, no prior work in the branch of task-tailored methods has theoretically investigated downstream guarantees when using pre-processed data. We further evaluate our framework through comparison studies based on tabular and image data sets, showing the superiority of our framework which preserves consistent trade-offs among multiple downstream models compared to recent competing models. Particularly for computer vision data, we see our method alters only necessary semantic features related to the central machine learning task to achieve fairness.
- Abstract(参考訳): 公正を意識した機械学習は、最近、データ駆動タスクにおける特定の社会的グループに対する差別を軽減するために、様々なコミュニティを惹きつけている。
公正な教師付き学習、特に前処理では、データフェアネスとタスクカスタマイズフェアネスの2つの主要なカテゴリがあった。
前者は、下流モデルのタイプに依存しないグループ間の中間分布を直接発見するため、学習された下流分類/回帰モデルは、その感度特性に関わらず、同じ共変量を入力する個人に同様の予測スコアを返す。
後者は、事前処理マップを構築する際に、教師付き学習タスクを明示的に考慮する。
本研究では,教師付き学習のためのアルゴリズム的公正性について検討し,HGR相関の観点からデータ公正性アプローチが過度に強い正規化を課すと主張している。
これにより、教師付き学習に適した、新しい事前処理アプローチを考案する動機付けになります。
我々は、前処理マップの取得における公平性と実用性の間のトレードオフについて説明します。
そして、変換されたデータに基づいて学習した任意の下流教師付きモデルの挙動を調べ、その公正性向上と実用性維持を保証するのに十分な条件を見出す。
我々の知る限り、タスク調整手法の分野における先行研究は、前処理データを用いた場合の下流保証を理論的に検討していない。
近年の競合モデルと比較して,複数の下流モデル間の一貫したトレードオフを保ったフレームワークの優位性を示す。
特にコンピュータビジョンデータにおいて,本手法は,公平性を達成するために,中央機械学習タスクに関連する必要な意味的特徴だけを変化させる。
関連論文リスト
- Simulating Biases for Interpretable Fairness in Offline and Online Classifiers [0.35998666903987897]
緩和方法は、モデル結果が公平に調整されることを保証するために重要である。
我々は、制御可能なバイアス注入による合成データセット生成のためのフレームワークを開発する。
実験では、オフラインとオンラインの両方の学習アプローチが採用されている。
論文 参考訳(メタデータ) (2025-07-14T11:04:24Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。