論文の概要: Towards Fairness and Privacy: A Novel Data Pre-processing Optimization Framework for Non-binary Protected Attributes
- arxiv url: http://arxiv.org/abs/2410.00836v1
- Date: Tue, 1 Oct 2024 16:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 03:46:09.259544
- Title: Towards Fairness and Privacy: A Novel Data Pre-processing Optimization Framework for Non-binary Protected Attributes
- Title(参考訳): 公正性とプライバシ:非バイナリ保護属性のための新しいデータ前処理最適化フレームワーク
- Authors: Manh Khoi Duong, Stefan Conrad,
- Abstract要約: この研究は、(バイナリでない)保護属性を含むデータセットをデバイアスすることで公正に対処するためのフレームワークを提示している。
このフレームワークは、特定の識別基準を最小限に抑えるデータサブセットを見つけることで、この問題に対処する。
以前の作業とは対照的に、このフレームワークはメトリックとタスクに依存しないため、高い柔軟性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The reason behind the unfair outcomes of AI is often rooted in biased datasets. Therefore, this work presents a framework for addressing fairness by debiasing datasets containing a (non-)binary protected attribute. The framework proposes a combinatorial optimization problem where heuristics such as genetic algorithms can be used to solve for the stated fairness objectives. The framework addresses this by finding a data subset that minimizes a certain discrimination measure. Depending on a user-defined setting, the framework enables different use cases, such as data removal, the addition of synthetic data, or exclusive use of synthetic data. The exclusive use of synthetic data in particular enhances the framework's ability to preserve privacy while optimizing for fairness. In a comprehensive evaluation, we demonstrate that under our framework, genetic algorithms can effectively yield fairer datasets compared to the original data. In contrast to prior work, the framework exhibits a high degree of flexibility as it is metric- and task-agnostic, can be applied to both binary or non-binary protected attributes, and demonstrates efficient runtime.
- Abstract(参考訳): AIの不公平な結果の背後にある理由は、しばしばバイアス付きデータセットに根ざしている。
そこで本研究では,(非)バイナリ保護属性を含むデータセットをデバイアスすることで,公平性に対処するフレームワークを提案する。
このフレームワークは、遺伝的アルゴリズムのようなヒューリスティックな手法を用いて、記述された公平性目的を解決するための組合せ最適化問題を提案する。
このフレームワークは、特定の識別基準を最小限に抑えるデータサブセットを見つけることで、この問題に対処する。
ユーザ定義の設定によって、このフレームワークは、データ削除、合成データの追加、合成データの排他的使用など、さまざまなユースケースを可能にする。
特に合成データの排他的使用は、公正性を最適化しながらプライバシを保護するフレームワークの能力を高める。
包括的評価では、我々の枠組みの下では、遺伝的アルゴリズムが元のデータと比較して、より公平なデータセットを効果的に生成できることが示される。
以前の作業とは対照的に、フレームワークはメトリックおよびタスクに依存しないため、高い柔軟性を示し、バイナリまたは非バイナリ保護属性の両方に適用でき、効率的なランタイムを示す。
関連論文リスト
- Optimisation Strategies for Ensuring Fairness in Machine Learning: With and Without Demographics [4.662958544712181]
本稿では,機械学習フェアネスにおけるオープンな問題に対処するための2つの形式的枠組みを紹介する。
あるフレームワークでは、オペレータ値の最適化とmin-maxの目的が時系列問題の不正性に対処するために使用される。
第2のフレームワークでは、一般的に使用されるデータセットにおいて、性別や人種などのセンシティブな属性を欠くという課題に対処する。
論文 参考訳(メタデータ) (2024-11-13T22:29:23Z) - Data Generation via Latent Factor Simulation for Fairness-aware Re-ranking [11.133319460036082]
合成データはアルゴリズム研究に有用な資源である。
フェアネスを意識したリコメンデーションのための新しいタイプのデータ: 合成レコメンデーションシステム出力を提案する。
論文 参考訳(メタデータ) (2024-09-21T09:13:50Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Implicitly Guided Design with PropEn: Match your Data to Follow the Gradient [52.2669490431145]
PropEnは'matching'にインスパイアされている。
一致したデータセットによるトレーニングは、データ分布内に留まりながら、興味のある性質の勾配を近似することを示す。
論文 参考訳(メタデータ) (2024-05-28T11:30:19Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - New Oracle-Efficient Algorithms for Private Synthetic Data Release [52.33506193761153]
微分プライベートな合成データを構築するための3つの新しいアルゴリズムを提案する。
アルゴリズムは最悪の場合でも差分プライバシーを満たす。
現状の手法である高次元行列機構 citeMcKennaMHM18 と比較すると,我々のアルゴリズムは大規模作業負荷の精度が向上する。
論文 参考訳(メタデータ) (2020-07-10T15:46:05Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fair Classification with Noisy Protected Attributes: A Framework with
Provable Guarantees [43.326827444321935]
本稿では,保護属性にノイズのある摂動が存在する場合に,公平な分類法を学習するための最適化フレームワークを提案する。
我々のフレームワークは、線形および線形摩擦的公正性制約の非常に一般的なクラスで利用できる。
我々は,雑音が大きい場合でも,精度の低下を最小限に抑えながら,統計的レートか偽陽性率の公平性を保証するために,我々の枠組みを利用できることを示した。
論文 参考訳(メタデータ) (2020-06-08T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。