論文の概要: Fairness-Aware Unsupervised Feature Selection
- arxiv url: http://arxiv.org/abs/2106.02216v1
- Date: Fri, 4 Jun 2021 02:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:21:50.006194
- Title: Fairness-Aware Unsupervised Feature Selection
- Title(参考訳): フェアネスを考慮した教師なし特徴選択
- Authors: Xiaoying Xing, Hongfu Liu, Chen Chen, Jundong Li
- Abstract要約: フェアネスを意識した教師なし特徴選択問題のための原則的フレームワークを開発する。
提案するフレームワークは,モデルに依存しないデバイアス戦略とみなすことができる。
複数の実世界のデータセットに対する実験結果から,本フレームワークは実用性と公正性向上の良好なトレードオフを達成できることが示された。
- 参考スコア(独自算出の注目度): 37.13136799987164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is a prevalent data preprocessing paradigm for various
learning tasks. Due to the expensive cost of acquiring supervision information,
unsupervised feature selection sparks great interests recently. However,
existing unsupervised feature selection algorithms do not have fairness
considerations and suffer from a high risk of amplifying discrimination by
selecting features that are over associated with protected attributes such as
gender, race, and ethnicity. In this paper, we make an initial investigation of
the fairness-aware unsupervised feature selection problem and develop a
principled framework, which leverages kernel alignment to find a subset of
high-quality features that can best preserve the information in the original
feature space while being minimally correlated with protected attributes.
Specifically, different from the mainstream in-processing debiasing methods,
our proposed framework can be regarded as a model-agnostic debiasing strategy
that eliminates biases and discrimination before downstream learning algorithms
are involved. Experimental results on multiple real-world datasets demonstrate
that our framework achieves a good trade-off between utility maximization and
fairness promotion.
- Abstract(参考訳): 特徴選択は、様々な学習タスクのための一般的なデータ前処理パラダイムである。
管理情報の取得にコストがかかるため、教師なしの機能選択が近年大きな関心を集めている。
しかし、既存の教師なし特徴選択アルゴリズムは公平さを考慮せず、性別、人種、民族といった保護された属性に過剰な特徴を選択することで差別を増幅するリスクが高い。
本稿では,公平性に配慮した特徴選択問題の最初の調査を行い,カーネルアライメントを利用して,保護された属性と最小限の相関を保ちながら,元の特徴空間の情報を保存することのできる高品質な機能のサブセットを探索する原則付きフレームワークを開発した。
具体的には,本提案手法と異なり,下流学習アルゴリズムが関与する前に,偏見や差別を排除したモデル非依存脱バイアス戦略とみなすことができる。
複数の実世界のデータセットに対する実験結果から,本フレームワークは有効性最大化と公平性向上のトレードオフを達成できることが示された。
関連論文リスト
- Detecting and Identifying Selection Structure in Sequential Data [53.24493902162797]
我々は,音楽のシーケンスなどの実践的な状況において,潜在目的に基づくデータポイントの選択的包摂が一般的である,と論じる。
選択構造はパラメトリックな仮定や介入実験なしで識別可能であることを示す。
また、他の種類の依存関係と同様に、選択構造を検知し、識別するための証明可能な正当性アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-29T20:56:34Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - Sequential Attention for Feature Selection [12.89764845700709]
本稿では,ニューラルネットワークの最先端な実験結果を実現するSequential Attentionと呼ばれる特徴選択アルゴリズムを提案する。
この設定への適応が古典的直交整合探索(OMP)アルゴリズムと等価であることを示すことによって、線形回帰のためのアルゴリズムの理論的な洞察を与える。
論文 参考訳(メタデータ) (2022-09-29T15:49:06Z) - Deep Feature Selection Using a Novel Complementary Feature Mask [5.904240881373805]
重要度が低い機能を活用することで、機能選択に対処します。
本稿では,新しい補完機能マスクに基づく特徴選択フレームワークを提案する。
提案手法は汎用的であり,既存のディープラーニングに基づく特徴選択手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-09-25T18:03:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Mitigating Bias in Set Selection with Noisy Protected Attributes [16.882719401742175]
ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
論文 参考訳(メタデータ) (2020-11-09T06:45:15Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。