論文の概要: Classification Utility, Fairness, and Compactness via Tunable
Information Bottleneck and R\'enyi Measures
- arxiv url: http://arxiv.org/abs/2206.10043v3
- Date: Fri, 1 Dec 2023 15:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 19:14:55.973267
- Title: Classification Utility, Fairness, and Compactness via Tunable
Information Bottleneck and R\'enyi Measures
- Title(参考訳): Tunable Information Bottleneck と R'enyi による分類の有用性, 公正性, コンパクト性
- Authors: Adam Gronowski, William Paul, Fady Alajaji, Bahman Gharesifard,
Philippe Burlina
- Abstract要約: R'enyi Fair Information Bottleneck Method (RFIB) と呼ばれる新しいフェア表現学習手法を提案する。
このアプローチのキーとなる属性は、ほとんどの以前の作業とは対照的に、人口統計学的パーティと等化オッズの両方を公正な制約として考えることである。
RFIBは, 実用性, 公正性, 複合実用性/フェアネスの測定値において, 現在の最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.907059059978774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing machine learning algorithms that are accurate yet fair, not
discriminating based on any sensitive attribute, is of paramount importance for
society to accept AI for critical applications. In this article, we propose a
novel fair representation learning method termed the R\'enyi Fair Information
Bottleneck Method (RFIB) which incorporates constraints for utility, fairness,
and compactness (compression) of representation, and apply it to image and
tabular data classification. A key attribute of our approach is that we
consider - in contrast to most prior work - both demographic parity and
equalized odds as fairness constraints, allowing for a more nuanced
satisfaction of both criteria. Leveraging a variational approach, we show that
our objectives yield a loss function involving classical Information Bottleneck
(IB) measures and establish an upper bound in terms of two R\'enyi measures of
order $\alpha$ on the mutual information IB term measuring compactness between
the input and its encoded embedding. We study the influence of the $\alpha$
parameter as well as two other tunable IB parameters on achieving
utility/fairness trade-off goals, and show that the $\alpha$ parameter gives an
additional degree of freedom that can be used to control the compactness of the
representation. Experimenting on three different image datasets (EyePACS,
CelebA, and FairFace) and two tabular datasets (Adult and COMPAS), using both
binary and categorical sensitive attributes, we show that on various utility,
fairness, and compound utility/fairness metrics RFIB outperforms current
state-of-the-art approaches.
- Abstract(参考訳): センシティブな属性に基づいて識別するのではなく、正確で公平な機械学習アルゴリズムを設計することは、社会にとって重要な応用としてAIを受け入れることが最重要である。
本稿では,表現の実用性,公平性,コンパクト性(圧縮)の制約を取り入れたRFIB(R\enyi Fair Information Bottleneck Method)と呼ばれる新しいフェア表現学習手法を提案し,それを画像および表データ分類に適用する。
我々のアプローチの重要な特徴は、人口統計学的パリティと等化オッズの両方を公平さの制約として考慮し、両方の基準をより微妙な満足度を可能にすることである。
変動的アプローチを応用して、我々の目的が古典的インフォメーション・ボトルネック(IB)測度を含む損失関数を導出し、入力とエンコードされた埋め込みの間のコンパクト性を測定する相互情報IB項の次数$\alpha$の2つのR'enyi測度を上限とすることを示す。
我々は$\alpha$パラメータと他の2つの調整可能なIBパラメータがユーティリティ/フェアネストレードオフ目標達成に与える影響について検討し、$\alpha$パラメータが表現のコンパクト性を制御するために使える追加の自由度を与えることを示す。
3つの異なる画像データセット(EyePACS,CelebA,FairFace)と2つの表付きデータセット(Adult,CompAS)を二分法と分類法の両方の感度属性を用いて実験した結果、RFIBは様々な実用性、公正性、複合実用・公正性の測定値において、現在の最先端のアプローチよりも優れていることがわかった。
関連論文リスト
- Fairness Through Controlled (Un)Awareness in Node Embeddings [4.818571559544213]
EmphCrossWalkアルゴリズムのパラメトリゼーションがノード埋め込みから機密属性を推測する能力にどのように影響するかを示す。
この機能は、グラフ埋め込みを利用したMLシステムの公正性を改善するための貴重なツールを提供する。
論文 参考訳(メタデータ) (2024-07-29T14:01:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Renyi Fair Information Bottleneck for Image Classification [12.13405065406781]
我々は、Renyi Fair Information Bottleneck(RFIB)と呼ばれる機械学習における公正性を保証する新しい方法を開発した。
フェア表現を学習するための2つの異なるフェアネス制約 - 人口統計パリティと等化オッズ - を考察し、Renyiの発散を調整可能なパラメータ$alpha$で用いた変分アプローチにより損失関数を導出する。
次に,EyePACSの医用画像データを用いた画像分類法の性能評価を行い,多種多様なユーティリティ/フェアネス測定値を用いて評価した。
論文 参考訳(メタデータ) (2022-03-09T18:52:04Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。