論文の概要: DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks
- arxiv url: http://arxiv.org/abs/2110.12884v1
- Date: Mon, 25 Oct 2021 12:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 22:35:56.469895
- Title: DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks
- Title(参考訳): DECAF:Causally-Aware Generative Networksを用いた公正な合成データ生成
- Authors: Boris van Breugel, Trent Kyono, Jeroen Berrevoets, Mihaela van der
Schaar
- Abstract要約: 本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
- 参考スコア(独自算出の注目度): 71.6879432974126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have been criticized for reflecting unfair biases in
the training data. Instead of solving for this by introducing fair learning
algorithms directly, we focus on generating fair synthetic data, such that any
downstream learner is fair. Generating fair synthetic data from unfair data -
while remaining truthful to the underlying data-generating process (DGP) - is
non-trivial. In this paper, we introduce DECAF: a GAN-based fair synthetic data
generator for tabular data. With DECAF we embed the DGP explicitly as a
structural causal model in the input layers of the generator, allowing each
variable to be reconstructed conditioned on its causal parents. This procedure
enables inference time debiasing, where biased edges can be strategically
removed for satisfying user-defined fairness requirements. The DECAF framework
is versatile and compatible with several popular definitions of fairness. In
our experiments, we show that DECAF successfully removes undesired bias and -
in contrast to existing methods - is capable of generating high-quality
synthetic data. Furthermore, we provide theoretical guarantees on the
generator's convergence and the fairness of downstream models.
- Abstract(参考訳): 機械学習モデルはトレーニングデータの不公平なバイアスを反映しているとして批判されている。
公平な学習アルゴリズムを直接導入することでこの問題を解決する代わりに、下流の学習者が公正であるように、公正な合成データを生成することに重点を置いている。
不公平なデータから公正な合成データを生成することは、基礎となるデータ生成プロセス(dgp)に忠実なままです。
本稿では,表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DECAFでは、DGPをジェネレータの入力層に明示的に構造因果モデルとして組み込み、各変数をその因果親に条件付きで再構成する。
この方法では、ユーザの定義した公平性要件を満たすために、バイアスのあるエッジを戦略的に除去することができる。
DECAFフレームワークは汎用的で、フェアネスの一般的な定義と互換性がある。
我々の実験では、DECAFは望ましくないバイアスを除去し、既存の手法とは対照的に高品質な合成データを生成できることが示されている。
さらに、発電機の収束と下流モデルの公平性に関する理論的保証を提供する。
関連論文リスト
- Data Augmentation via Diffusion Model to Enhance AI Fairness [1.2979015577834876]
本稿では,AIフェアネスを改善するために合成データを生成する拡散モデルの可能性について検討する。
Tabular Denoising Diffusion Probabilistic Model (Tab-DDPM) を用いてデータ拡張を行った。
実験結果から,Tab-DDPMにより生成された合成データは,二項分類の公平性を向上させることが示された。
論文 参考訳(メタデータ) (2024-10-20T18:52:31Z) - Generating Synthetic Fair Syntax-agnostic Data by Learning and Distilling Fair Representation [4.1942958779358674]
既存のバイアス緩和生成法は、公平性目標を処理し、計算オーバーヘッドを考慮するのに失敗する。
我々は知識蒸留に基づく公正なデータ生成手法を提案し、そこでは小さなアーキテクチャを用いて潜在空間における公正な表現を蒸留する。
提案手法は, 最先端の公正生成モデルに比べて, フェアネス, 合成試料品質およびデータ有用性において, 5%, 5%, 10%の上昇を示した。
論文 参考訳(メタデータ) (2024-08-20T11:37:52Z) - How Far Can Fairness Constraints Help Recover From Biased Data? [9.430687114814997]
公平な分類に関する一般的な信念は、公正な制約は正確さとトレードオフを引き起こし、バイアスのあるデータが悪化する可能性があるというものである。
この信念とは対照的に、Blum & Stangl は、非常に偏りのあるデータであっても、同じ機会制約による公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
論文 参考訳(メタデータ) (2023-12-16T09:49:31Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - FairGen: Fair Synthetic Data Generation [0.3149883354098941]
本稿では,GANアーキテクチャに依存しないより公平な合成データを生成するパイプラインを提案する。
合成データを生成する場合、ほとんどのGANはトレーニングデータに存在するバイアスを増幅するが、これらのバイアスを誘発するサンプルを除去することで、GANは本質的に真の情報的サンプルに重点を置いている、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T08:13:47Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - TabFairGAN: Fair Tabular Data Generation with Generative Adversarial
Networks [0.0]
本稿では,表データ生成のためのジェネレーティブ・アドバイザリアル・ネットワークを提案する。
我々は、制約のない、制約のない公正なデータ生成の両方のケースで結果をテストする。
我々のモデルは、1つの批評家のみを用いることで、また元のGANモデルの大きな問題を避けることで、より安定している。
論文 参考訳(メタデータ) (2021-09-02T01:48:01Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。