論文の概要: An Operational Perspective to Fairness Interventions: Where and How to
Intervene
- arxiv url: http://arxiv.org/abs/2302.01574v2
- Date: Thu, 23 Mar 2023 21:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 17:45:51.685558
- Title: An Operational Perspective to Fairness Interventions: Where and How to
Intervene
- Title(参考訳): 公平な介入に対するオペレーショナル・パースペクティブ--介入の場所と方法
- Authors: Brian Hsu, Xiaotong Chen, Ying Han, Hongseok Namkoong, Kinjal Basu
- Abstract要約: フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
- 参考スコア(独自算出の注目度): 9.833760837977222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI-based decision systems proliferate, their successful operationalization
requires balancing multiple desiderata: predictive performance, disparity
across groups, safeguarding sensitive group attributes (e.g., race), and
engineering cost. We present a holistic framework for evaluating and
contextualizing fairness interventions with respect to the above desiderata.
The two key points of practical consideration are \emph{where} (pre-, in-,
post-processing) and \emph{how} (in what way the sensitive group data is used)
the intervention is introduced. We demonstrate our framework with a case study
on predictive parity. In it, we first propose a novel method for achieving
predictive parity fairness without using group data at inference time via
distibutionally robust optimization. Then, we showcase the effectiveness of
these methods in a benchmarking study of close to 400 variations across two
major model types (XGBoost vs. Neural Net), ten datasets, and over twenty
unique methodologies. Methodological insights derived from our empirical study
inform the practical design of ML workflow with fairness as a central concern.
We find predictive parity is difficult to achieve without using group data, and
despite requiring group data during model training (but not inference),
distributionally robust methods we develop provide significant Pareto
improvement. Moreover, a plain XGBoost model often Pareto-dominates neural
networks with fairness interventions, highlighting the importance of model
inductive bias.
- Abstract(参考訳): AIベースの意思決定システムが普及するにつれて、その運用の成功には、予測パフォーマンス、グループ間の格差、センシティブなグループ属性(例えばレース)の保護、エンジニアリングコストといった複数のデシダータのバランスが求められる。
本稿では,上記のデシデラタに関して公平な介入を評価し,文脈化するための包括的枠組みを提案する。
実践的考察の2つの重要なポイントは、\emph{where} (pre-, in-, post-process) と \emph{how} (センシティブなグループデータがどのように使われるか) である。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
そこで本研究では,不連続ロバスト最適化による推定時間におけるグループデータを用いずに,予測パリティフェアネスを実現する新しい手法を提案する。
次に、これらの手法の有効性を、2つの主要なモデルタイプ(XGBoost vs. Neural Net)、10のデータセット、20以上のユニークな方法論にわたる400近いバリエーションのベンチマーク研究で示す。
実証研究から得られた方法論的洞察は、フェアネスを中心としたMLワークフローの実践的設計を示唆する。
グループデータを用いることなく予測パリティを実現することは困難であり、モデルトレーニング中にグループデータを必要とする(ただし推論は行わない)にもかかわらず、分散的に堅牢な手法を開発することにより、Paretoは大幅に改善される。
さらに、普通のXGBoostモデルは、公正な介入を伴うニューラルネットワークをパレートし、モデル誘導バイアスの重要性を強調します。
関連論文リスト
- Deriving Causal Order from Single-Variable Interventions: Guarantees & Algorithm [14.980926991441345]
介入データを含むデータセットは,データ分布に関する現実的な仮定の下で効果的に抽出可能であることを示す。
観察的および介入的設定における各変数の限界分布の比較に依拠する介入忠実性を導入する。
また、多数の単一変数の介入を含むデータセットから因果順序を推測するアルゴリズムであるIntersortを導入する。
論文 参考訳(メタデータ) (2024-05-28T16:07:17Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - Improving Link Prediction in Social Networks Using Local and Global
Features: A Clustering-based Approach [0.0]
本稿では,リンク予測問題に対処するため,第1グループと第2グループを組み合わせた手法を提案する。
提案手法は,まずノードの位置と動的挙動に関連する特徴を同定する。
そして、計算された類似度尺度に基づいて、サブスペースクラスタリングアルゴリズムをグループ社会オブジェクトに適用する。
論文 参考訳(メタデータ) (2023-05-17T14:45:02Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。