論文の概要: Fair Representation Learning for Continuous Sensitive Attributes using Expectation of Integral Probability Metrics
- arxiv url: http://arxiv.org/abs/2505.06435v1
- Date: Fri, 09 May 2025 21:08:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.840161
- Title: Fair Representation Learning for Continuous Sensitive Attributes using Expectation of Integral Probability Metrics
- Title(参考訳): 積分確率指標の期待を用いた連続感性属性の公正表現学習
- Authors: Insung Kong, Kunwoong Kim, Yongdai Kim,
- Abstract要約: AIフェアネス(AI Fairness)またはアルゴリズムフェアネス(アルゴリズムフェアネス)は、アルゴリズムが個人やグループに対して偏見や差別なしに動作することを保証することを目的としている。
さまざまなAIアルゴリズムの中で、Fair Representation Learning (FRL)アプローチは近年大きな関心を集めている。
MMD(FREM)を用いたEIPMを用いたFair Representationと呼ばれる新しいFRLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.010428370752397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI fairness, also known as algorithmic fairness, aims to ensure that algorithms operate without bias or discrimination towards any individual or group. Among various AI algorithms, the Fair Representation Learning (FRL) approach has gained significant interest in recent years. However, existing FRL algorithms have a limitation: they are primarily designed for categorical sensitive attributes and thus cannot be applied to continuous sensitive attributes, such as age or income. In this paper, we propose an FRL algorithm for continuous sensitive attributes. First, we introduce a measure called the Expectation of Integral Probability Metrics (EIPM) to assess the fairness level of representation space for continuous sensitive attributes. We demonstrate that if the distribution of the representation has a low EIPM value, then any prediction head constructed on the top of the representation become fair, regardless of the selection of the prediction head. Furthermore, EIPM possesses a distinguished advantage in that it can be accurately estimated using our proposed estimator with finite samples. Based on these properties, we propose a new FRL algorithm called Fair Representation using EIPM with MMD (FREM). Experimental evidences show that FREM outperforms other baseline methods.
- Abstract(参考訳): AIフェアネス(AI Fairness)またはアルゴリズムフェアネス(アルゴリズムフェアネス)は、アルゴリズムが個人やグループに対して偏見や差別なしに動作することを保証することを目的としている。
さまざまなAIアルゴリズムの中で、Fair Representation Learning (FRL)アプローチは近年大きな関心を集めている。
しかし、既存のFRLアルゴリズムには制限があり、主に分類学的に敏感な属性のために設計されているため、年齢や収入などの連続的な敏感な属性には適用できない。
本稿では,連続感度特性に対するFRLアルゴリズムを提案する。
まず,連続的な属性に対する表現空間の公平性を評価するために,積分確率メトリクス(EIPM)の期待値(pre expectation of Integral Probability Metrics)という尺度を導入する。
表現の分布がEIPM値が低い場合、予測ヘッドの選択に関係なく、表現の上部に構築された任意の予測ヘッドが公平になることを示す。
さらにEIPMは, 有限標本を用いた推定器を用いて精度良く推定できるという点において, 優れた優位性を有している。
これらの特性に基づいて、MDM(FREM)を用いたEIPMを用いたFair Representationと呼ばれる新しいFRLアルゴリズムを提案する。
実験的な証拠は、FREMが他の基準法よりも優れていることを示している。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Learning fair representation with a parametric integral probability
metric [2.544539499281093]
公正表現(LFR)を学習するための新しい逆学習手法を提案する。
本稿では,表現の公平さと表現の最上部に構築された予測モデルの公正さの理論的関係を導出する。
提案するLFRアルゴリズムは計算的に軽量で安定であり,最終予測モデルは他のLFRアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2022-02-07T05:02:23Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。