論文の概要: Addressing Strategic Manipulation Disparities in Fair Classification
- arxiv url: http://arxiv.org/abs/2205.10842v2
- Date: Fri, 15 Sep 2023 19:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:49:37.312349
- Title: Addressing Strategic Manipulation Disparities in Fair Classification
- Title(参考訳): 公平な分類における戦略的マニピュレーションの相違
- Authors: Vijay Keswani and L. Elisa Celis
- Abstract要約: 少数派の個人が、機能更新に高額な費用を払っていることがよく示されます。
マイノリティグループに対する戦略的操作コストを低減させる分類器を構築するための制約付き最適化フレームワークを提案する。
実世界の複数のデータセットに対して,本手法の有効性を実証的に示す。
- 参考スコア(独自算出の注目度): 15.032416453073086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world classification settings, such as loan application evaluation or
content moderation on online platforms, individuals respond to classifier
predictions by strategically updating their features to increase their
likelihood of receiving a particular (positive) decision (at a certain cost).
Yet, when different demographic groups have different feature distributions or
pay different update costs, prior work has shown that individuals from minority
groups often pay a higher cost to update their features. Fair classification
aims to address such classifier performance disparities by constraining the
classifiers to satisfy statistical fairness properties. However, we show that
standard fairness constraints do not guarantee that the constrained classifier
reduces the disparity in strategic manipulation cost. To address such biases in
strategic settings and provide equal opportunities for strategic manipulation,
we propose a constrained optimization framework that constructs classifiers
that lower the strategic manipulation cost for minority groups. We develop our
framework by studying theoretical connections between group-specific strategic
cost disparity and standard selection rate fairness metrics (e.g., statistical
rate and true positive rate). Empirically, we show the efficacy of this
approach over multiple real-world datasets.
- Abstract(参考訳): オンラインプラットフォーム上でのローン申請評価やコンテンツモデレーションなどの現実世界の分類設定では、個人は特定の(肯定的な)決定を受ける可能性を高めるために、戦略的に特徴を更新することで分類器の予測に応答する。
しかし、異なる集団が異なる機能分布を持つ場合や、異なる更新コストを支払っている場合、少数グループの個人が機能を更新するために高いコストを支払うことがしばしば示されている。
フェア分類は、統計的フェアネス特性を満たすために分類器を制約することにより、このような分類器の性能格差に対処することを目的としている。
しかし, 標準的公平性制約は, 制約付き分類器が戦略操作コストの差を減らすことを保証しないことを示した。
戦略設定におけるそのようなバイアスに対処し、戦略的操作に等しく機会を与えるために、少数集団の戦略操作コストを下げる分類器を構築する制約付き最適化フレームワークを提案する。
我々は,グループ固有の戦略的コスト格差と標準選択率公正度(統計率,真正率など)の理論的関係を考察し,枠組みを整備する。
実世界の複数のデータセットに対するこのアプローチの有効性を実証的に示す。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - OptiGrad: A Fair and more Efficient Price Elasticity Optimization via a Gradient Based Learning [7.145413681946911]
本稿では,非生命保険市場の利益率を勾配降下法により最適化する新しい手法を提案する。
1)利益マージンの最大化、2)転換率の確保、3)人口比率(DP)などの公正基準の実施の3つの主要な目標を目標としている。
論文 参考訳(メタデータ) (2024-04-16T04:21:59Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Generalized Strategic Classification and the Case of Aligned Incentives [16.607142366834015]
戦略的なユーザー行動の理由について、より広い視点で議論する。
我々のモデルは現在のモデルの多くを仮定するが、他の新しい設定を含んでいる。
結果とアプローチが,最も一般的なケースにどのように拡張できるかを示す。
論文 参考訳(メタデータ) (2022-02-09T09:36:09Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Learning Strategies in Decentralized Matching Markets under Uncertain
Preferences [91.3755431537592]
エージェントの選好が不明な場合,共有資源の不足の設定における意思決定の問題について検討する。
我々のアプローチは、再生されたカーネルヒルベルト空間における好みの表現に基づいている。
エージェントの期待した利益を最大化する最適な戦略を導出する。
論文 参考訳(メタデータ) (2020-10-29T03:08:22Z) - The foundations of cost-sensitive causal classification [3.7493611543472953]
本研究は,統一評価フレームワークの試作により,コスト感受性と因果分類を統合した。
本研究は,従来の分類が,パフォーマンス指標の範囲における因果分類の特定の事例であることを示す。
提案手法は,コスト依存型因果学習手法の開発への道を開くものである。
論文 参考訳(メタデータ) (2020-07-24T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。