論文の概要: Counterfactual Fairness through Transforming Data Orthogonal to Bias
- arxiv url: http://arxiv.org/abs/2403.17852v1
- Date: Tue, 26 Mar 2024 16:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 14:27:54.661074
- Title: Counterfactual Fairness through Transforming Data Orthogonal to Bias
- Title(参考訳): データ直交からバイアスへの変換による対物フェアネス
- Authors: Shuyi Chen, Shixiang Zhu,
- Abstract要約: 本稿では,データ前処理アルゴリズムであるOrthogonal to Bias(OB)を導入し,連続性のある変数群の影響を除去する。
OBはモデルに依存しず、幅広い機械学習モデルやタスクに対応している。
提案手法は,精度を損なうことなく,より公平な結果を実現する能力を示す。
- 参考スコア(独自算出の注目度): 7.109458605736819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have shown exceptional prowess in solving complex issues across various domains. Nonetheless, these models can sometimes exhibit biased decision-making, leading to disparities in treatment across different groups. Despite the extensive research on fairness, the nuanced effects of multivariate and continuous sensitive variables on decision-making outcomes remain insufficiently studied. We introduce a novel data pre-processing algorithm, Orthogonal to Bias (OB), designed to remove the influence of a group of continuous sensitive variables, thereby facilitating counterfactual fairness in machine learning applications. Our approach is grounded in the assumption of a jointly normal distribution within a structural causal model (SCM), proving that counterfactual fairness can be achieved by ensuring the data is uncorrelated with sensitive variables. The OB algorithm is model-agnostic, catering to a wide array of machine learning models and tasks, and includes a sparse variant to enhance numerical stability through regularization. Through empirical evaluation on simulated and real-world datasets - including the adult income and the COMPAS recidivism datasets - our methodology demonstrates its capacity to enable fairer outcomes without compromising accuracy.
- Abstract(参考訳): 機械学習モデルは、さまざまな領域にまたがる複雑な問題を解決するのに、非常に優れた技術を示している。
それにもかかわらず、これらのモデルは時に偏りのある意思決定を示し、異なるグループで治療の相違をもたらすことがある。
公平性に関する広範な研究にもかかわらず、多変量変数と連続敏感変数の意思決定結果に対するニュアンスド効果は未だ十分に研究されていない。
そこで本研究では,連続性のある変数群の影響を排除し,機械学習アプリケーションにおける対実的公正性を促進するために,新しいデータ前処理アルゴリズムOrthogonal to Bias(OB)を導入する。
本手法は, 構造因果モデル (SCM) 内での連立正規分布の仮定に基づいて, データを感度変数と無相関にすることで, 対実的公正性を実現することができることを示す。
OBアルゴリズムはモデルに依存しず、幅広い機械学習モデルやタスクに対応し、正規化による数値安定性を高めるためのスパース変種を含む。
シミュレーションおよび実世界のデータセット(成人所得とCompAS再分配データセットを含む)に関する実証的な評価を通じて、我々の方法論は、精度を損なうことなく、より公平な結果を可能にする能力を示す。
関連論文リスト
- Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Variational $f$-Divergence and Derangements for Discriminative Mutual
Information Estimation [4.114444605090134]
本稿では,$f$-divergenceの変動表現に基づく識別的相互情報推定手法を提案する。
参照シナリオの実験により、我々の手法は精度と複雑さの両方で最先端の神経推定器より優れていることが示された。
論文 参考訳(メタデータ) (2023-05-31T16:54:25Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Transitioning from Real to Synthetic data: Quantifying the bias in model [1.6134566438137665]
本研究では,合成データを用いたモデルにおけるバイアスと公平性のトレードオフを確立することを目的とする。
合成データを用いて訓練したモデルには、様々なレベルのバイアスの影響があることを実証する。
論文 参考訳(メタデータ) (2021-05-10T06:57:14Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。