論文の概要: FairBatch: Batch Selection for Model Fairness
- arxiv url: http://arxiv.org/abs/2012.01696v1
- Date: Thu, 3 Dec 2020 04:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:16:50.919995
- Title: FairBatch: Batch Selection for Model Fairness
- Title(参考訳): FairBatch: モデルフェアネスのためのバッチ選択
- Authors: Yuji Roh, Kangwook Lee, Steven Euijong Whang, Changho Suh
- Abstract要約: モデルフェアネスを改善するための既存の技術は、データ前処理やモデルトレーニングに広範な変更を必要とする。
両レベル最適化のレンズを用いてこの問題に対処する。
バッチ選択アルゴリズムはFairBatchと呼ばれ、この最適化を実装し、顕著な公正度対策をサポートしている。
- 参考スコア(独自算出の注目度): 28.94276265328868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a fair machine learning model is essential to prevent demographic
disparity. Existing techniques for improving model fairness require broad
changes in either data preprocessing or model training, rendering themselves
difficult-to-adopt for potentially already complex machine learning systems. We
address this problem via the lens of bilevel optimization. While keeping the
standard training algorithm as an inner optimizer, we incorporate an outer
optimizer so as to equip the inner problem with an additional functionality:
Adaptively selecting minibatch sizes for the purpose of improving model
fairness. Our batch selection algorithm, which we call FairBatch, implements
this optimization and supports prominent fairness measures: equal opportunity,
equalized odds, and demographic parity. FairBatch comes with a significant
implementation benefit -- it does not require any modification to data
preprocessing or model training. For instance, a single-line change of PyTorch
code for replacing batch selection part of model training suffices to employ
FairBatch. Our experiments conducted both on synthetic and benchmark real data
demonstrate that FairBatch can provide such functionalities while achieving
comparable (or even greater) performances against the state of the arts.
Furthermore, FairBatch can readily improve fairness of any pre-trained model
simply via fine-tuning. It is also compatible with existing batch selection
techniques intended for different purposes, such as faster convergence, thus
gracefully achieving multiple purposes.
- Abstract(参考訳): 人口格差を防止するためには、公平な機械学習モデルのトレーニングが不可欠である。
モデルの公平性を改善する既存の技術では、データ前処理とモデルトレーニングの両方に広範な変更が必要であり、すでに複雑な機械学習システムでは採用が難しい。
我々はこの問題を双レベル最適化のレンズを通して解決する。
標準のトレーニングアルゴリズムをインナーオプティマイザとして保持しながら、内部問題にさらなる機能を持たせるために、外部オプティマイザを組み込んで、モデルフェア性を改善するために、ミニバッチサイズを適応的に選択する。
バッチ選択アルゴリズムはFairBatchと呼ばれ、この最適化を実装し、均等な機会、等化確率、人口統計等等の顕著な公正度対策をサポートします。
fairbatchには、データプリプロセッシングやモデルトレーニングの変更を必要としない、重要な実装上のメリットがある。
例えば、モデルトレーニングsufficeのバッチ選択部分をfairbatchに置き換えるためのpytorchコードの単一行の変更などだ。
私たちの実験は、合成データとベンチマーク実データの両方で実施し、fairbatchが最先端の芸術と同等(あるいはそれ以上)のパフォーマンスを達成しながら、このような機能を提供できることを示した。
さらに、FairBatchは、任意の事前訓練されたモデルの公正性を簡単に改善することができる。
また、より高速な収束など、異なる目的のために意図された既存のバッチ選択技術とも互換性がある。
関連論文リスト
- Data Mixing Laws: Optimizing Data Mixtures by Predicting Language Modeling Performance [55.872926690722714]
本研究では,関数形式の混合比に関するモデル性能の予測可能性について検討する。
トレーニングステップのスケーリング法則,モデルサイズ,データ混合法則のネスト利用を提案する。
提案手法は,RedPajamaにおける100Bトークンをトレーニングした1Bモデルのトレーニング混合物を効果的に最適化する。
論文 参考訳(メタデータ) (2024-03-25T17:14:00Z) - FairTune: Optimizing Parameter Efficient Fine Tuning for Fairness in
Medical Image Analysis [15.166588667072888]
医用診断などの倫理的に敏感な応用分野において,頑健なグループフェアネス特性を持つトレーニングモデルが重要である。
高容量のディープラーニングモデルは、すべてのトレーニングデータをほぼ完璧に適合させることができる。
公平性に関してPEFTパラメータの選択を最適化するフレームワークであるFairTuneを提案する。
論文 参考訳(メタデータ) (2023-10-08T07:41:15Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Augmented Fairness: An Interpretable Model Augmenting Decision-Makers'
Fairness [10.53972370889201]
ブラックボックス意思決定者の予測バイアスを軽減するためのモデルに依存しない手法を提案する。
提案手法は,ブラックボックス決定器が偏りのある特徴空間において,フェールサロゲート(fair surrogate)として機能する,いくつかの短い決定規則で置き換える手法である。
論文 参考訳(メタデータ) (2020-11-17T03:25:44Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。