論文の概要: Individual Fairness Revisited: Transferring Techniques from Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2002.07738v4
- Date: Tue, 13 Oct 2020 14:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:33:58.557485
- Title: Individual Fairness Revisited: Transferring Techniques from Adversarial
Robustness
- Title(参考訳): 個人フェアネス再考: 対人ロバスト性からの移譲技術
- Authors: Samuel Yeom, Matt Fredrikson
- Abstract要約: 最小メトリックの定義を導入し、最小メトリックの観点からモデルの振る舞いを特徴付ける。
対向ロバスト性からランダム化された滑らか化のメカニズムを適用し、与えられた重み付き$Lp$計量の下で個別に公平にする。
我々の実験は、線形モデルの最小限のメトリクスをより複雑なニューラルネットワークに適応させることで、実用にはほとんどコストがかからない有意義で解釈可能な公正性を保証することができることを示した。
- 参考スコア(独自算出の注目度): 30.268148669682734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We turn the definition of individual fairness on its head---rather than
ascertaining the fairness of a model given a predetermined metric, we find a
metric for a given model that satisfies individual fairness. This can
facilitate the discussion on the fairness of a model, addressing the issue that
it may be difficult to specify a priori a suitable metric. Our contributions
are twofold: First, we introduce the definition of a minimal metric and
characterize the behavior of models in terms of minimal metrics. Second, for
more complicated models, we apply the mechanism of randomized smoothing from
adversarial robustness to make them individually fair under a given weighted
$L^p$ metric. Our experiments show that adapting the minimal metrics of linear
models to more complicated neural networks can lead to meaningful and
interpretable fairness guarantees at little cost to utility.
- Abstract(参考訳): 我々は、所定の計量が与えられたモデルの公正さを確かめるよりもむしろ、個々の公正さを満足する与えられたモデルの計量を求める。
これにより、モデルの公平性に関する議論が促進され、優先順位を適切な計量として特定することが難しい問題に対処することができる。
まず、最小限のメトリックの定義を導入し、最小限のメトリックの観点からモデルの振る舞いを特徴づけます。
第二に、より複雑なモデルに対して、対向ロバスト性からランダムに滑らか化する機構を適用して、与えられた重み付き$L^p$計量の下で個別に公平にする。
我々の実験では、線形モデルの最小指標をより複雑なニューラルネットワークに適応させることで、有用性に対する最小限のコストで有意義で解釈可能な公平性を保証することができることを示した。
関連論文リスト
- Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Towards Fair and Calibrated Models [26.74017047721052]
フェアネスの特定の定義と密接に一致している[ビスワなど2019年]。
公平かつ校正されたモデルを達成するための既存の否定的な結果が、公平性の定義に当てはまらないことを示す。
本研究では, グループワイドキャリブレーションを行うための既存のキャリブレーション損失の修正を提案し, 公平かつキャリブレーションされたモデルを実現する方法を提案する。
論文 参考訳(メタデータ) (2023-10-16T13:41:09Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Training Normalizing Flows with the Precision-Recall Divergence [73.92251251511199]
特定精度リコールトレードオフを達成することは、em PR-divergencesと呼ぶ家族からの-divergencesの最小化に相当することを示す。
本稿では, 正規化フローをトレーニングして, 偏差を最小化し, 特に, 所与の高精度リコールトレードオフを実現する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T17:46:47Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes [0.0]
公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
論文 参考訳(メタデータ) (2021-09-01T03:56:43Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Explainability for fair machine learning [10.227479910430866]
本稿では,Shapley値のパラダイムに基づく機械学習における公平性を説明するための新しいアプローチを提案する。
我々の公正な説明は、モデルがセンシティブな属性を直接操作していない場合であっても、モデル全体の不公平さを個々の入力特徴に帰着する。
本稿では,既存のトレーニング時間フェアネス介入を適用したメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T20:21:01Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。