論文の概要: BiFair: Training Fair Models with Bilevel Optimization
- arxiv url: http://arxiv.org/abs/2106.04757v1
- Date: Thu, 3 Jun 2021 22:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 12:31:41.562944
- Title: BiFair: Training Fair Models with Bilevel Optimization
- Title(参考訳): BiFair: 双方向最適化によるフェアモデルのトレーニング
- Authors: Mustafa Safa Ozdayi, Murat Kantarcioglu, Rishabh Iyer
- Abstract要約: 我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
- 参考スコア(独自算出の注目度): 8.2509884277533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior studies have shown that, training machine learning models via empirical
loss minimization to maximize a utility metric (e.g., accuracy), might yield
models that make discriminatory predictions. To alleviate this issue, we
develop a new training algorithm, named BiFair, which jointly minimizes for a
utility, and a fairness loss of interest. Crucially, we do so without directly
modifying the training objective, e.g., by adding regularization terms. Rather,
we learn a set of weights on the training dataset, such that, training on the
weighted dataset ensures both good utility, and fairness. The dataset weights
are learned in concurrence to the model training, which is done by solving a
bilevel optimization problem using a held-out validation dataset. Overall, this
approach yields models with better fairness-utility trade-offs. Particularly,
we compare our algorithm with three other state-of-the-art fair training
algorithms over three real-world datasets, and demonstrate that, BiFair
consistently performs better, i.e., we reach to better values of a given
fairness metric under same, or higher accuracy. Further, our algorithm is
scalable. It is applicable both to simple models, such as logistic regression,
as well as more complex models, such as deep neural networks, as evidenced by
our experimental analysis.
- Abstract(参考訳): 以前の研究では、実用的計量(例えば精度)を最大化するために経験的損失最小化による機械学習モデルを訓練すると、識別予測を行うモデルが得られることが示されている。
この問題を緩和するため、我々はBiFairという名の新しいトレーニングアルゴリズムを開発し、ユーティリティの最小化と公正な関心の喪失を共同で行う。
重要なことは、トレーニングの目的を直接変更することなく、例えば正規化の項を追加することです。
むしろ、トレーニングデータセットの重み付けのセットを学び、重み付きデータセットのトレーニングは、優れたユーティリティと公平性の両方を保証します。
データセットの重み付けは、保持されたバリデーションデータセットを使用して二段階最適化問題を解決することによって、モデルトレーニングに共起して学習される。
全体として、このアプローチは、より公平な利用のトレードオフを持つモデルをもたらす。
特に,3つの実世界のデータセットに対して,我々のアルゴリズムを他の3つの最先端の公正なトレーニングアルゴリズムと比較し,bifairが一貫して優れた性能を発揮することを実証した。
さらに、我々のアルゴリズムはスケーラブルです。
これはロジスティック回帰のような単純なモデルと、実験分析によって証明されたディープニューラルネットワークのようなより複雑なモデルの両方に適用できる。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Preserving Fairness in AI under Domain Shift [15.820660013260584]
AIの公正性を保証するための既存のアルゴリズムは、単発トレーニング戦略を使用している。
ドメインシフトの下で公正な状態を維持するために公正なモデルを適用するアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-01-29T06:13:40Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - FORML: Learning to Reweight Data for Fairness [2.105564340986074]
メタラーニング(FORML)によるフェアネス最適化リヘアリングについて紹介する。
FORMLは、トレーニングサンプル重量とニューラルネットワークのパラメータを共同最適化することで、公正性の制約と精度のバランスを取る。
また,FORMLは,既存の最先端再重み付け手法に比べて,画像分類タスクで約1%,顔予測タスクで約5%向上することを示した。
論文 参考訳(メタデータ) (2022-02-03T17:36:07Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。