論文の概要: Fair mapping
- arxiv url: http://arxiv.org/abs/2209.00617v1
- Date: Thu, 1 Sep 2022 17:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:14:06.973967
- Title: Fair mapping
- Title(参考訳): フェアマッピング
- Authors: S\'ebastien Gambs and Rosin Claude Ngueveu
- Abstract要約: 本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To mitigate the effects of undesired biases in models, several approaches
propose to pre-process the input dataset to reduce the risks of discrimination
by preventing the inference of sensitive attributes. Unfortunately, most of
these pre-processing methods lead to the generation a new distribution that is
very different from the original one, thus often leading to unrealistic data.
As a side effect, this new data distribution implies that existing models need
to be re-trained to be able to make accurate predictions. To address this
issue, we propose a novel pre-processing method, that we coin as fair mapping,
based on the transformation of the distribution of protected groups onto a
chosen target one, with additional privacy constraints whose objective is to
prevent the inference of sensitive attributes. More precisely, we leverage on
the recent works of the Wasserstein GAN and AttGAN frameworks to achieve the
optimal transport of data points coupled with a discriminator enforcing the
protection against attribute inference. Our proposed approach, preserves the
interpretability of data and can be used without defining exactly the sensitive
groups. In addition, our approach can be specialized to model existing
state-of-the-art approaches, thus proposing a unifying view on these methods.
Finally, several experiments on real and synthetic datasets demonstrate that
our approach is able to hide the sensitive attributes, while limiting the
distortion of the data and improving the fairness on subsequent data analysis
tasks.
- Abstract(参考訳): モデルにおける望ましくないバイアスの影響を軽減するために、いくつかの手法が入力データセットを前処理し、機密属性の推測を防止して識別のリスクを低減する。
残念なことに、これらの前処理手法のほとんどは、元のものとは全く異なる新しい分布を生成し、したがってしばしば非現実的なデータを生み出す。
副作用として、この新しいデータ分布は、既存のモデルを正確に予測できるように再トレーニングする必要があることを示唆している。
この問題に対処するため,我々は,保護されたグループを選択対象グループへ変換し,機密属性の推測を防止することを目的とした,新たなプライバシ制約を課した公正な事前処理手法を提案する。
より正確には、Wasserstein GANおよびAttGANフレームワークの最近の研究を活用し、属性推論に対する保護を強制する識別器と結合したデータポイントの最適な転送を実現する。
提案手法はデータの解釈性を保ち,センシティブなグループを正確に定義することなく利用できる。
さらに,本手法は既存の最先端手法のモデル化に特化して,これらの手法の統一的な視点を提案することができる。
最後に、実データおよび合成データセットに関するいくつかの実験により、我々のアプローチは、データの歪みを抑えながら、機密属性を隠蔽できることを示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Align, Minimize and Diversify: A Source-Free Unsupervised Domain Adaptation Method for Handwritten Text Recognition [11.080302144256164]
Align, Minimize and Diversify (AMD) は、手書き文字認識(HTR)のための非教師なし領域適応手法である。
本手法は,3つの異なる正規化項を組み込むことで,適応中のソースデータの再検討の必要性を明確に排除する。
いくつかのベンチマークによる実験の結果、AMDの有効性とロバスト性を示し、HTRにおけるDA法よりも競争力があり、しばしば優れていた。
論文 参考訳(メタデータ) (2024-04-28T17:50:58Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Unsupervised Accuracy Estimation of Deep Visual Models using
Domain-Adaptive Adversarial Perturbation without Source Samples [1.1852406625172216]
本研究では,未ラベルのターゲットデータに対して,ソースデータにアクセスせずにモデル精度を推定する新しいフレームワークを提案する。
提案手法は,ソース仮説と対象の擬似ラベル関数との相違率を測定する。
提案するソースフリーフレームワークは,分散シフトの困難なシナリオに効果的に対処し,トレーニングにソースデータやラベルを必要とする既存の手法より優れている。
論文 参考訳(メタデータ) (2023-07-19T15:33:11Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。