論文の概要: Achieving Utility, Fairness, and Compactness via Tunable Information
Bottleneck Measures
- arxiv url: http://arxiv.org/abs/2206.10043v1
- Date: Mon, 20 Jun 2022 23:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 19:55:49.548461
- Title: Achieving Utility, Fairness, and Compactness via Tunable Information
Bottleneck Measures
- Title(参考訳): 情報ボトルネック計測による有用性・公平性・コンパクト性の実現
- Authors: Adam Gronowski, William Paul, Fady Alajaji, Bahman Gharesifard,
Philippe Burlina
- Abstract要約: R'enyi Fair Information Bottleneck Method (RFIB) と呼ばれる新しいフェア表現学習手法を提案する。
我々は、人口格差と均等化確率の両方を公正性制約とみなし、両基準のより曖昧な満足度を実現する。
実用性,公正性,複合効用/フェアネスの測定値を用いて本手法の性能評価を行い,RFIBが現在の最先端手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.13405065406781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing machine learning algorithms that are accurate yet fair, not
discriminating based on any sensitive attribute, is of paramount importance for
society to accept AI for critical applications. In this article, we propose a
novel fair representation learning method termed the R\'enyi Fair Information
Bottleneck Method (RFIB) which incorporates constraints for utility, fairness,
and compactness of representation, and apply it to image classification. A key
attribute of our approach is that we consider - in contrast to most prior work
- both demographic parity and equalized odds as fairness constraints, allowing
for a more nuanced satisfaction of both criteria. Leveraging a variational
approach, we show that our objectives yield a loss function involving classical
Information Bottleneck (IB) measures and establish an upper bound in terms of
the R\'enyi divergence of order $\alpha$ on the mutual information IB term
measuring compactness between the input and its encoded embedding.
Experimenting on three different image datasets (EyePACS, CelebA, and
FairFace), we study the influence of the $\alpha$ parameter as well as two
other tunable IB parameters on achieving utility/fairness trade-off goals, and
show that the $\alpha$ parameter gives an additional degree of freedom that can
be used to control the compactness of the representation. We evaluate the
performance of our method using various utility, fairness, and compound
utility/fairness metrics, showing that RFIB outperforms current
state-of-the-art approaches.
- Abstract(参考訳): センシティブな属性に基づいて識別するのではなく、正確で公平な機械学習アルゴリズムを設計することは、社会にとって重要な応用としてAIを受け入れることが最重要である。
本稿では,表現の実用性,公平性,コンパクト性に関する制約を組み込んだRFIB(R\enyi Fair Information Bottleneck Method)という,表現表現の公正性学習手法を提案し,画像分類に適用する。
我々のアプローチの重要な特徴は、人口統計学的パリティと等化オッズの両方を公平さの制約として考慮し、両方の基準をより微妙な満足度を可能にすることである。
変分的アプローチを用いて,本手法は,入力と符号化埋め込みのコンパクト性を測定する相互情報ib項に基づいて,古典的情報ボトルネック(ib)尺度を含む損失関数を導出し,r\'enyi divergence of order $\alpha$ の上限を確立することを示す。
3つの異なる画像データセット(eyepacs、celeba、fairface)を実験し、$\alpha$パラメータと他の2つの調整可能なibパラメータがユーティリティ/フェアのトレードオフ目標達成に与える影響を調べ、$\alpha$パラメータが表現のコンパクト性を制御するために使用できる追加の自由度を与えることを示した。
実用性,公正性,複合効用/フェアネスの測定値を用いて本手法の性能評価を行い,RFIBが現在の最先端手法よりも優れていることを示す。
関連論文リスト
- Fairness Through Controlled (Un)Awareness in Node Embeddings [4.818571559544213]
EmphCrossWalkアルゴリズムのパラメトリゼーションがノード埋め込みから機密属性を推測する能力にどのように影響するかを示す。
この機能は、グラフ埋め込みを利用したMLシステムの公正性を改善するための貴重なツールを提供する。
論文 参考訳(メタデータ) (2024-07-29T14:01:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Renyi Fair Information Bottleneck for Image Classification [12.13405065406781]
我々は、Renyi Fair Information Bottleneck(RFIB)と呼ばれる機械学習における公正性を保証する新しい方法を開発した。
フェア表現を学習するための2つの異なるフェアネス制約 - 人口統計パリティと等化オッズ - を考察し、Renyiの発散を調整可能なパラメータ$alpha$で用いた変分アプローチにより損失関数を導出する。
次に,EyePACSの医用画像データを用いた画像分類法の性能評価を行い,多種多様なユーティリティ/フェアネス測定値を用いて評価した。
論文 参考訳(メタデータ) (2022-03-09T18:52:04Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。