論文の概要: Information Theoretic Measures for Fairness-aware Feature Selection
- arxiv url: http://arxiv.org/abs/2106.00772v1
- Date: Tue, 1 Jun 2021 20:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 09:16:15.461920
- Title: Information Theoretic Measures for Fairness-aware Feature Selection
- Title(参考訳): フェアネスを考慮した特徴選択のための情報理論
- Authors: Sajad Khodadadian, Mohamed Nafea, AmirEmad Ghassami, Negar Kiyavash
- Abstract要約: 我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
- 参考スコア(独自算出の注目度): 27.06618125828978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine earning algorithms are increasingly used for consequential decision
making regarding individuals based on their relevant features. Features that
are relevant for accurate decisions may however lead to either explicit or
implicit forms of discrimination against unprivileged groups, such as those of
certain race or gender. This happens due to existing biases in the training
data, which are often replicated or even exacerbated by the learning algorithm.
Identifying and measuring these biases at the data level is a challenging
problem due to the interdependence among the features, and the decision
outcome. In this work, we develop a framework for fairness-aware feature
selection, based on information theoretic measures for the accuracy and
discriminatory impacts of features. Specifically, our goal is to design a
fairness utility score for each feature which quantifies how this feature
influences accurate as well as nondiscriminatory decisions. We first propose
information theoretic measures for the impact of different subsets of features
on the accuracy and discrimination of the model. Subsequently, we deduce the
marginal impact of each feature using Shapley value function. Our framework
depends on the joint statistics of the data rather than a particular classifier
design. We examine our proposed framework on real and synthetic data to
evaluate its performance.
- Abstract(参考訳): 機械利得アルゴリズムは、関連する特徴に基づいて個人に関する一連の意思決定にますます使われている。
しかし、正確な決定に関係のある特徴は、特定の人種や性別のような非特権集団に対する明示的または暗黙的な差別に繋がる可能性がある。
これはトレーニングデータに既存のバイアスがあり、学習アルゴリズムによってしばしば複製されるか、さらに悪化する。
これらのバイアスをデータレベルで識別し、測定することは、特徴間の相互依存と決定結果のために難しい問題である。
本研究では,特徴の精度と識別的影響に関する情報理論に基づく,公正な特徴選択のためのフレームワークを開発する。
特に当社の目標は,この機能が正確性や非差別的判断に与える影響を定量化する,各機能に対する公平性ユーティリティスコアの設計にあります。
まず,モデルの精度と識別に異なる特徴のサブセットが与える影響に関する情報理論的な尺度を提案する。
その後,shapley値関数を用いて各特徴の限界影響を推定する。
我々のフレームワークは、特定の分類器の設計よりもデータの合同統計に依存する。
提案する実データおよび合成データに関する枠組みについて検討し,その性能評価を行った。
関連論文リスト
- Detecting and Identifying Selection Structure in Sequential Data [53.24493902162797]
我々は,音楽のシーケンスなどの実践的な状況において,潜在目的に基づくデータポイントの選択的包摂が一般的である,と論じる。
選択構造はパラメトリックな仮定や介入実験なしで識別可能であることを示す。
また、他の種類の依存関係と同様に、選択構造を検知し、識別するための証明可能な正当性アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-29T20:56:34Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - A statistical approach to detect sensitive features in a group fairness
setting [10.087372021356751]
本稿では,不公平な結果の検証に訓練されたモデルを必要としないセンシティブな特徴を自動的に認識するタスクに対処する前処理ステップを提案する。
我々の経験的結果は、我々の仮説を証明し、文献に敏感であると考えられるいくつかの特徴が必ずしも異質な(不公平な)結果を必要とするとは限らないことを示す。
論文 参考訳(メタデータ) (2023-05-11T17:30:12Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Nonparametric Feature Impact and Importance [0.6123324869194193]
データ上で直接動作する部分依存曲線から導かれる特徴的影響と重要性の数学的定義を与える。
品質を評価するために、これらの定義によってランク付けされた特徴は、既存の特徴選択技術と競合することを示す。
論文 参考訳(メタデータ) (2020-06-08T17:07:35Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。