論文の概要: You Only Debias Once: Towards Flexible Accuracy-Fairness Trade-offs at Inference Time
- arxiv url: http://arxiv.org/abs/2503.07066v1
- Date: Mon, 10 Mar 2025 08:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:42.149119
- Title: You Only Debias Once: Towards Flexible Accuracy-Fairness Trade-offs at Inference Time
- Title(参考訳): 一度だけバイアスを発生させる - 予測時間におけるフレキシブルな正確性-フェアネストレードオフを目指して
- Authors: Xiaotian Han, Tianlong Chen, Kaixiong Zhou, Zhimeng Jiang, Zhangyang Wang, Xia Hu,
- Abstract要約: ディープニューラルネットワークは、様々なバイアス問題に悩まされがちで、高い意思決定のための応用を危うくしている。
推論時間におけるフレキシブルな精度-公正トレードオフを実現するために,You Only Debias Once (YODO)を提案する。
YODOは、モデル精度と公平性の間の柔軟なトレードオフを、超低オーバーヘッドで達成します。
- 参考スコア(独自算出の注目度): 131.96508834627832
- License:
- Abstract: Deep neural networks are prone to various bias issues, jeopardizing their applications for high-stake decision-making. Existing fairness methods typically offer a fixed accuracy-fairness trade-off, since the weight of the well-trained model is a fixed point (fairness-optimum) in the weight space. Nevertheless, more flexible accuracy-fairness trade-offs at inference time are practically desired since: 1) stakes of the same downstream task can vary for different individuals, and 2) different regions have diverse laws or regularization for fairness. If using the previous fairness methods, we have to train multiple models, each offering a specific level of accuracy-fairness trade-off. This is often computationally expensive, time-consuming, and difficult to deploy, making it less practical for real-world applications. To address this problem, we propose You Only Debias Once (YODO) to achieve in-situ flexible accuracy-fairness trade-offs at inference time, using a single model that trained only once. Instead of pursuing one individual fixed point (fairness-optimum) in the weight space, we aim to find a "line" in the weight space that connects the accuracy-optimum and fairness-optimum points using a single model. Points (models) on this line implement varying levels of accuracy-fairness trade-offs. At inference time, by manually selecting the specific position of the learned "line", our proposed method can achieve arbitrary accuracy-fairness trade-offs for different end-users and scenarios. Experimental results on tabular and image datasets show that YODO achieves flexible trade-offs between model accuracy and fairness, at ultra-low overheads. For example, if we need $100$ levels of trade-off on the \acse dataset, YODO takes $3.53$ seconds while training $100$ fixed models consumes $425$ seconds. The code is available at https://github.com/ahxt/yodo.
- Abstract(参考訳): ディープニューラルネットワークは、様々なバイアス問題に悩まされがちで、高い意思決定のための応用を危うくしている。
既存のフェアネス法は、よく訓練されたモデルの重みが重み空間の固定点(フェアネス最適化)であるため、固定された精度-フェアネストレードオフを提供するのが一般的である。
それにもかかわらず、推論時のより柔軟な精度-公正トレードオフは、以下のように事実上望まれている。
1)同じ下流作業の持ち分は個人によって異なり、
2) 地域によって多種多様な法律や公正の規則が定められている。
従来のフェアネスメソッドを使用する場合、複数のモデルをトレーニングする必要があります。
これはしばしば計算コストが高く、時間がかかり、デプロイが難しいため、現実世界のアプリケーションでは実用的ではない。
この問題に対処するために,我々は,一度だけ訓練した単一モデルを用いて,推論時に柔軟かつ正確で公平なトレードオフを実現するために,You Only Debias Once (YODO)を提案する。
重み空間において1つの個別の固定点(フェアネス最適点)を追求する代わりに、1つのモデルを用いて精度最適点とフェアネス最適点を接続するウェイト空間において「ライン」を求める。
このライン上のポイント(モデル)は、様々なレベルの精度-公正トレードオフを実装します。
提案手法は,学習した「ライン」の特定の位置を手動で選択することで,異なるエンドユーザーやシナリオに対して任意の精度・公平なトレードオフを実現できる。
表と画像のデータセットによる実験結果から、YODOはモデル精度と公平性の間の柔軟なトレードオフを超低オーバーヘッドで達成している。
例えば、 \acseデータセットで100ドルのトレードオフレベルが必要な場合、YODOは3.53ドルの秒を要し、100ドルの固定モデルは425ドルの秒を消費する。
コードはhttps://github.com/ahxt/yodo.comで公開されている。
関連論文リスト
- Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Multivariate Probabilistic Forecasting of Intraday Electricity Prices
using Normalizing Flows [62.997667081978825]
ドイツでは、日内電気価格は通常、EPEXスポット市場の1日当たりの価格に異なる時間帯で変動する。
本研究は,日頭契約の日内価格差をモデル化する確率論的モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-05-27T08:38:20Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Consider the Alternatives: Navigating Fairness-Accuracy Tradeoffs via
Disqualification [7.9649015115693444]
多くの機械学習環境では、公平さと精度のデシダラタの間には固有の緊張関係がある。
フェアネスと精度のトレードオフを推論する新しいフレームワークである$gamma$-disqualificationを紹介し,研究する。
例えば$gamma$-disqualification($gamma$-disqualification,$gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification, $gamma$-disqualification)は,学習方法のトレードオフや精度を比較できる。
論文 参考訳(メタデータ) (2021-10-02T14:32:51Z) - FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes [0.0]
公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
論文 参考訳(メタデータ) (2021-09-01T03:56:43Z) - OmniFair: A Declarative System for Model-Agnostic Group Fairness in
Machine Learning [11.762484210143773]
機械学習(ML)におけるグループ公平性を支援する宣言型OmniFairを提案する。
OmniFairは、ユーザが望ましいグループフェアネス制約を指定するための宣言インターフェイスを備えている。
OmniFairは、サポート対象の公平性制約と下流のMLモデルの両方の観点から、既存のアルゴリズム公平性アプローチよりも汎用性が高いことを示しています。
論文 参考訳(メタデータ) (2021-03-13T02:44:10Z) - The Right Tool for the Job: Matching Model and Instance Complexities [62.95183777679024]
NLPモデルが大きくなればなるほど、訓練されたモデルを実行するには、金銭的・環境的なコストを発生させる重要な計算資源が必要である。
我々は、推論中、早期(かつ高速)の"exit"を可能にする文脈表現微調整の修正を提案する。
3つのテキスト分類データセットと2つの自然言語推論ベンチマークの2つのタスクで、5つの異なるデータセットに対して提案した修正を検証した。
論文 参考訳(メタデータ) (2020-04-16T04:28:08Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。