論文の概要: Fairly Accurate: Optimizing Accuracy Parity in Fair Target-Group Detection
- arxiv url: http://arxiv.org/abs/2407.11933v1
- Date: Tue, 16 Jul 2024 17:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-17 13:34:07.247707
- Title: Fairly Accurate: Optimizing Accuracy Parity in Fair Target-Group Detection
- Title(参考訳): Fairly Accurate: Fair Target-Group Detectionにおける精度パリティの最適化
- Authors: Soumyajit Gupta, Venelin Kovatchev, Maria De-Arteaga, Matthew Lease,
- Abstract要約: グループ精度パリティ(GAP)は、APに1対1のマッピングを持つ最初の微分可能損失関数である。
GAPは他の一般的な損失関数と比較してバイアスを緩和する。
- 参考スコア(独自算出の注目度): 10.104304963621946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In algorithmic toxicity detection pipelines, it is important to identify which demographic group(s) are the subject of a post, a task commonly known as \textit{target (group) detection}. While accurate detection is clearly important, we further advocate a fairness objective: to provide equal protection to all groups who may be targeted. To this end, we adopt \textit{Accuracy Parity} (AP) -- balanced detection accuracy across groups -- as our fairness objective. However, in order to align model training with our AP fairness objective, we require an equivalent loss function. Moreover, for gradient-based models such as neural networks, this loss function needs to be differentiable. Because no such loss function exists today for AP, we propose \emph{Group Accuracy Parity} (GAP): the first differentiable loss function having a one-on-one mapping to AP. We empirically show that GAP addresses disparate impact on groups for target detection. Furthermore, because a single post often targets multiple groups in practice, we also provide a mathematical extension of GAP to larger multi-group settings, something typically requiring heuristics in prior work. Our findings show that by optimizing AP, GAP better mitigates bias in comparison with other commonly employed loss functions.
- Abstract(参考訳): アルゴリズムによる毒性検出パイプラインでは、どのグループ(s)がポストの対象であるかを特定することが重要である。
正確な検出は明らかに重要であるが、フェアネスの目的は、標的となるすべてのグループに平等な保護を提供することである。
この目的のために、フェアネスの目的として、 \textit{Accuracy Parity} (AP) -- グループ間でのバランスの取れた検出精度 -- を採用しています。
しかし、モデルトレーニングをAP公正度目標と整合させるためには、等価な損失関数が必要である。
さらに、ニューラルネットワークのような勾配に基づくモデルでは、この損失関数は微分可能である必要がある。
このような損失関数は現在存在しないので、AP に 1 対 1 の写像を持つ最初の微分可微分損失関数である \emph{Group Accuracy Parity} (GAP) を提案する。
我々は,GAPが目標検出のためのグループに異なる影響を及ぼすことを実証的に示す。
さらに、1つのポストが実際に複数のグループをターゲットにしている場合が多いので、GAPの数学的拡張をより大規模なマルチグループ設定に提供します。
以上の結果から,APを最適化することにより,GAPは他の一般的に用いられている損失関数と比較してバイアスを軽減できることが示唆された。
関連論文リスト
- Quantifying Query Fairness Under Unawareness [82.33181164973365]
本稿では,二項分類を超えた複数の機密属性を効果的に処理する定量化に基づく頑健な公正度推定手法を提案する。
提案手法は, 様々な属性にまたがる既存のベースラインよりも優れており, 未知の公正度を測定するための信頼性の高いプロトコルを最初に確立した。
論文 参考訳(メタデータ) (2025-06-04T16:31:44Z) - Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [53.96714099151378]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - Differential Adjusted Parity for Learning Fair Representations [14.267727134658292]
公正で偏見のない機械学習モデルの開発は、人工知能分野の研究者にとって現在も進行中の目標である。
偏差適応パリティ(DAP)の損失を非偏差情報表現として導入する。
論文 参考訳(メタデータ) (2025-02-13T20:48:26Z) - Generalization bounds for regression and classification on adaptive covering input domains [1.4141453107129398]
一般化誤差の上限となる一般化境界に着目する。
分類タスクの場合、対象関数を1ホット、ピースワイド定数関数として扱い、誤差測定に0/1ロスを用いる。
論文 参考訳(メタデータ) (2024-07-29T05:40:08Z) - Hate Speech Detection with Generalizable Target-aware Fairness [31.019324291704628]
Generalizable target-aware Fairness (GetFair) は、推論中に多様で見えないターゲットを含む、各ポストを適切に分類する新しい方法である。
GetFairは、識別器を欺くために、対向パイプラインで一連のフィルタ関数を訓練する。
2つのHSDデータセットの実験では、サンプル外ターゲット上でのGetFairの利点が示されている。
論文 参考訳(メタデータ) (2024-05-28T13:09:22Z) - Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups [2.5849042763002426]
我々はアイデンティティグループのための名前付きエンティティ認識(NER)システムを開発した。
我々のツールは、文が攻撃を含むかどうかを検知するだけでなく、上記のグループに対応する文トークンもタグ付けする。
ソーシャルメディアに関するケーススタディで,Facebookのコメントを注釈付けし,IDグループに言及するニュースに関連するコメントと比較し,ツールの有用性を検証した。
論文 参考訳(メタデータ) (2024-05-13T19:33:18Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Bridging the Gap Between Target Networks and Functional Regularization [61.051716530459586]
関数空間における凸正規化器であり、容易に調整できる明示的な関数正規化を提案する。
提案手法の収束を理論的・実験的に解析し,より理論的に根ざした機能正規化アプローチでターゲットネットワークを置き換えることにより,サンプリング効率と性能が向上することが実証された。
論文 参考訳(メタデータ) (2022-10-21T22:27:07Z) - AcroFOD: An Adaptive Method for Cross-domain Few-shot Object Detection [59.10314662986463]
クロスドメインの少数ショットオブジェクト検出は、いくつかの注釈付きターゲットデータで対象ドメイン内のオブジェクト検出器を適応することを目的としている。
提案手法は,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-22T10:23:40Z) - Revisiting AP Loss for Dense Object Detection: Adaptive Ranking Pair
Selection [19.940491797959407]
本研究では, 平均精度 (AP) の損失を再考し, その重要な要素は, 正試料と負試料のランキングペアを選択することであることを明らかにした。
本稿では,AP損失を改善するための2つの方法を提案する。第1に,APE(Adaptive Pairwise Error)損失は,正と負の両方のサンプルにおいて,ペアのランク付けに重点を置いている。
MSCOCOデータセットで行った実験は、現在の分類とランキングの損失と比較して、提案手法の優位性を実証し、分析を支援した。
論文 参考訳(メタデータ) (2022-07-25T10:33:06Z) - Are Your Reviewers Being Treated Equally? Discovering Subgroup
Structures to Improve Fairness in Spam Detection [13.26226951002133]
本稿では,スパム検出のための新しいサブグループ構造の定義,近似,利用の課題に対処する。
まず、レビューグラフ内のサブグループ構造を同定し、グループ内の離散精度を導出する。
3つの大規模なYelpレビューデータセットのベースラインに対する総合的な比較では、サブグループのメンバシップを識別し、グループフェアネスに活用できることが示されている。
論文 参考訳(メタデータ) (2022-04-24T02:19:22Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Searching Parameterized AP Loss for Object Detection [36.3603004789312]
ロス関数はディープネットワークベースの物体検出器の訓練において重要な役割を果たす。
AP計量の微分不可能な性質のため、従来の物体検出器は2つのサブタスクに対して別々の微分可能な損失を課す。
そこで,パラメータ化関数を導入して,AP計算における非微分可能成分を代用するパラメータ化APロスを提案する。
論文 参考訳(メタデータ) (2021-12-09T18:59:54Z) - Reducing Target Group Bias in Hate Speech Detectors [56.94616390740415]
大規模な公開データセットでトレーニングされたテキスト分類モデルは、いくつかの保護されたグループで大幅に性能が低下する可能性がある。
本稿では,トークンレベルのヘイトセンスの曖昧さを実現し,トークンのヘイトセンスの表現を検知に利用することを提案する。
論文 参考訳(メタデータ) (2021-12-07T17:49:34Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Costs and Benefits of Wasserstein Fair Regression [11.134279147254361]
本稿では,レグレッション・セッティングにおける統計的パリティと精度の相違点を特徴付ける。
我々の下限はシャープでアルゴリズムに依存しておらず、単純な解釈を許している。
我々は,表現学習のレンズを用いて,公正回帰のための実用的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T14:24:44Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。