論文の概要: Learning fair representation with a parametric integral probability
metric
- arxiv url: http://arxiv.org/abs/2202.02943v1
- Date: Mon, 7 Feb 2022 05:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 14:35:22.511583
- Title: Learning fair representation with a parametric integral probability
metric
- Title(参考訳): パラメトリック積分確率計量を用いた公平表現の学習
- Authors: Dongha Kim, Kunwoong Kim, Insung Kong, Ilsang Ohn, and Yongdai Kim
- Abstract要約: 公正表現(LFR)を学習するための新しい逆学習手法を提案する。
本稿では,表現の公平さと表現の最上部に構築された予測モデルの公正さの理論的関係を導出する。
提案するLFRアルゴリズムは計算的に軽量で安定であり,最終予測モデルは他のLFRアルゴリズムよりも優れている。
- 参考スコア(独自算出の注目度): 2.544539499281093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As they have a vital effect on social decision-making, AI algorithms should
be not only accurate but also fair. Among various algorithms for fairness AI,
learning fair representation (LFR), whose goal is to find a fair representation
with respect to sensitive variables such as gender and race, has received much
attention. For LFR, the adversarial training scheme is popularly employed as is
done in the generative adversarial network type algorithms. The choice of a
discriminator, however, is done heuristically without justification. In this
paper, we propose a new adversarial training scheme for LFR, where the integral
probability metric (IPM) with a specific parametric family of discriminators is
used. The most notable result of the proposed LFR algorithm is its theoretical
guarantee about the fairness of the final prediction model, which has not been
considered yet. That is, we derive theoretical relations between the fairness
of representation and the fairness of the prediction model built on the top of
the representation (i.e., using the representation as the input). Moreover, by
numerical experiments, we show that our proposed LFR algorithm is
computationally lighter and more stable, and the final prediction model is
competitive or superior to other LFR algorithms using more complex
discriminators.
- Abstract(参考訳): 社会的な意思決定に重要な影響を与えるため、AIアルゴリズムは正確であるだけでなく公平であるべきだ。
フェアネスAIのための様々なアルゴリズムの中で、性別や人種などの敏感な変数に対して公正な表現を見つけることを目標とする学習公正表現(LFR)が注目されている。
LFRでは、生成的対数ネットワーク型アルゴリズムと同様に、逆数トレーニングスキームが一般的である。
しかし、差別者の選択は正当化なしでヒューリスティックに行われる。
本稿では,識別器の特定のパラメトリック族を持つ積分確率計量(ipm)を用いた,lfrの新たな逆学習手法を提案する。
提案したLFRアルゴリズムの最も顕著な結果は、まだ検討されていない最終予測モデルの公平性に関する理論的保証である。
すなわち、表現の公平さと表現の上部に構築された予測モデルの公正さ(つまり表現を入力として使用する)の間の理論的関係を導出する。
さらに, 数値実験により, 提案したLFRアルゴリズムは計算的に軽量で安定であり, 最終予測モデルは, より複雑な判別器を用いた他のLFRアルゴリズムよりも優れていることを示す。
関連論文リスト
- Loss Balancing for Fair Supervised Learning [20.13250413610897]
指導的学習モデルは、貸付、大学入学、顔認識、自然言語処理など様々な領域で使用されている。
学習過程における不公平性予測に対処する様々な概念が提案されている(EL)。
論文 参考訳(メタデータ) (2023-11-07T04:36:13Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - The Sharpe predictor for fairness in machine learning [0.0]
機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
論文 参考訳(メタデータ) (2021-08-13T22:22:34Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。