論文の概要: Multiple Attribute Fairness: Application to Fraud Detection
- arxiv url: http://arxiv.org/abs/2207.14355v1
- Date: Thu, 28 Jul 2022 19:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:31:31.248264
- Title: Multiple Attribute Fairness: Application to Fraud Detection
- Title(参考訳): 多重属性フェアネス:フラッド検出への応用
- Authors: Meghanath Macha Y, Sriram Ravindran, Deepak Pai, Anish Narang, Vijay
Srivastava
- Abstract要約: 本稿では, 人気均等度制度における等値条件を緩和する公平度尺度を提案する。
評価基準に適合する機密属性値当たりの結果を校正する反復的非依存グリッドベースモデルを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a fairness measure relaxing the equality conditions in the popular
equal odds fairness regime for classification. We design an iterative,
model-agnostic, grid-based heuristic that calibrates the outcomes per sensitive
attribute value to conform to the measure. The heuristic is designed to handle
high arity attribute values and performs a per attribute sanitization of
outcomes across different protected attribute values. We also extend our
heuristic for multiple attributes. Highlighting our motivating application,
fraud detection, we show that the proposed heuristic is able to achieve
fairness across multiple values of a single protected attribute, multiple
protected attributes. When compared to current fairness techniques, that focus
on two groups, we achieve comparable performance across several public data
sets.
- Abstract(参考訳): 本稿では, 人気均等度制度における等値条件を緩和する公平度尺度を提案する。
我々は、モデルに依存しないグリッドベースの反復的ヒューリスティックを設計し、その測定値に適合するように、感度特性値当たりの結果を校正する。
ヒューリスティックは高いアリティ属性値を扱うように設計され、異なる保護属性値にわたる結果の属性ごとのサニタイズを行う。
複数の属性に対するヒューリスティックも拡張しています。
当社のモチベーションアプリケーションである不正検出に注目して,提案するヒューリスティックは,複数の保護属性と複数の保護属性の複数の値に対して公平性を実現することができることを示した。
2つのグループに焦点を当てた現在のフェアネス技術と比較すると、いくつかの公開データセットで同等のパフォーマンスを実現しています。
関連論文リスト
- Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Fairness Improvement with Multiple Protected Attributes: How Far Are We? [27.86281559193479]
本稿では,複数の保護属性に対する公平性向上について検討した。
我々は,11種類の最先端の公平性向上手法の有効性を解析した。
単一属性と複数の保護属性を考えると,精度損失の差はほとんどない。
論文 参考訳(メタデータ) (2023-07-25T14:01:23Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Attribute Mix: Semantic Data Augmentation for Fine Grained Recognition [102.45926816660665]
本研究では属性レベルのデータ拡張戦略であるAttribute Mixを提案する。
その原則は、属性の特徴が細粒度のサブカテゴリ間で共有され、画像間でシームレスに転送可能であることである。
論文 参考訳(メタデータ) (2020-04-06T14:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。