論文の概要: Overcoming Representation Bias in Fairness-Aware data Repair using Optimal Transport
- arxiv url: http://arxiv.org/abs/2410.02840v1
- Date: Thu, 3 Oct 2024 11:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:24:53.669261
- Title: Overcoming Representation Bias in Fairness-Aware data Repair using Optimal Transport
- Title(参考訳): フェアネスを考慮した最適輸送を用いたデータ修復における表現バイアスの克服
- Authors: Abigail Langbridge, Anthony Quinn, Robert Shorten,
- Abstract要約: 最適輸送(OT)は、公平さを増進する方法でデータ分布を変換する上で重要な役割を持つ。
ベイズ的非パラメトリック停止規則を用いて,データ分布の属性ラベル成分を学習する。
OT-最適量子化演算子は、アーカイブデータの修復に使用できる。
我々は、変換されたデータの損傷に対して公正さを交換できる量化器とともに、公平な分布目標の新たな定義を定式化する。
- 参考スコア(独自算出の注目度): 1.9540085115923316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimal transport (OT) has an important role in transforming data distributions in a manner which engenders fairness. Typically, the OT operators are learnt from the unfair attribute-labelled data, and then used for their repair. Two significant limitations of this approach are as follows: (i) the OT operators for underrepresented subgroups are poorly learnt (i.e. they are susceptible to representation bias); and (ii) these OT repairs cannot be effected on identically distributed but out-of-sample (i.e.\ archival) data. In this paper, we address both of these problems by adopting a Bayesian nonparametric stopping rule for learning each attribute-labelled component of the data distribution. The induced OT-optimal quantization operators can then be used to repair the archival data. We formulate a novel definition of the fair distributional target, along with quantifiers that allow us to trade fairness against damage in the transformed data. These are used to reveal excellent performance of our representation-bias-tolerant scheme in simulated and benchmark data sets.
- Abstract(参考訳): 最適輸送(OT)は、公平さを増進する方法でデータ分布を変換する上で重要な役割を持つ。
通常、OT演算子は不公平な属性ラベル付きデータから学習され、修理に使用される。
このアプローチの2つの重要な制限は以下のとおりである。
(i)表現不足部分群に対するOT演算子は学習が不十分である(つまり、表現バイアスに影響を受けやすい)。
(II)これらのOT修復は、同一に分散されているが、サンプル外(すなわち、アーカイブ)データには影響しない。
本稿では,この2つの問題をベイズ的非パラメトリック停止規則を用いて,データ分布の属性付き成分を学習する。
OT-最適量子化演算子は、アーカイブデータの修復に使用できる。
我々は、変換されたデータの損傷に対して公正さを交換できる量化器とともに、公平な分布目標の新たな定義を定式化する。
これらは、シミュレーションおよびベンチマークデータセットにおける表現バイアス耐性スキームの優れた性能を示すために使用される。
関連論文リスト
- Fair CoVariance Neural Networks [34.68621550644667]
本稿では,Fair CoVariance Neural Networks (FVNN) を提案する。
我々は,FVNNが類似のPCAアプローチよりも本質的に公平であることを証明する。
論文 参考訳(メタデータ) (2024-09-13T06:24:18Z) - On the Power of Randomization in Fair Classification and Representation [4.423655941492362]
正当性制約を課す際に生じる精度の損失を最小限に抑えるためにランダム化の力を示す。
本研究では, DPフェア, EOフェア, PEフェアの表現を, 最適なDPフェア, EOフェア, PEフェアの分類器に比較して, 高い精度で, 精度を損なうことなく構築する。
論文 参考訳(メタデータ) (2024-06-05T10:55:11Z) - Optimal Transport for Fairness: Archival Data Repair using Small Research Data Sets [1.9540085115923316]
我々は保護属性(S$)と保護されていない属性(U$)の条件独立性の観点から公正性を定義する。
我々はこれらのデータのごく一部だけを用いて、アーカイブデータのトレントを修復する必要がある重要な設定(研究データ)に対処する(S|U$-labelled)。
我々の業績は、大量のオフサンプル、ラベル付き(アーキバル)データを効果的に修復できることを実証している。
論文 参考訳(メタデータ) (2024-03-20T09:23:20Z) - Balancing Fairness and Accuracy in Data-Restricted Binary Classification [14.439413517433891]
本稿では,4つの実践シナリオ下での精度と公平性のトレードオフをモデル化する枠組みを提案する。
3つのデータセットの実験では、トレードオフを定量化するためのツールとして提案されたフレームワークの有用性が示されている。
論文 参考訳(メタデータ) (2024-03-12T15:01:27Z) - Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening [51.34904967046097]
本稿では,パラメータチューニングの必要性を排除した選択的シナプス減衰アンラーニング法の拡張を提案する。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
このアプローチの適用は、サプライチェーン管理などの産業環境において特に魅力的である。
論文 参考訳(メタデータ) (2024-02-06T14:04:31Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。