論文の概要: Approximating Discrimination Within Models When Faced With Several Non-Binary Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2408.06099v1
- Date: Mon, 12 Aug 2024 12:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 13:13:27.405450
- Title: Approximating Discrimination Within Models When Faced With Several Non-Binary Sensitive Attributes
- Title(参考訳): 数個の非バイナリ感性属性に直面したモデルにおける識別の近似
- Authors: Yijun Bian, Yujie Luo, Ping Xu,
- Abstract要約: 多様体の観点から,集合間の距離に基づく公平度尺度を提案する。
複数の値のいくつかの敏感な属性に対するきめ細かな識別評価を扱うことができる。
また,集合距離の計算を高速化する2つの近似アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.731404257629232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrimination mitigation with machine learning (ML) models could be complicated because multiple factors may interweave with each other including hierarchically and historically. Yet few existing fairness measures are able to capture the discrimination level within ML models in the face of multiple sensitive attributes. To bridge this gap, we propose a fairness measure based on distances between sets from a manifold perspective, named as 'harmonic fairness measure via manifolds (HFM)' with two optional versions, which can deal with a fine-grained discrimination evaluation for several sensitive attributes of multiple values. To accelerate the computation of distances of sets, we further propose two approximation algorithms named 'Approximation of distance between sets for one sensitive attribute with multiple values (ApproxDist)' and 'Approximation of extended distance between sets for several sensitive attributes with multiple values (ExtendDist)' to respectively resolve bias evaluation of one single sensitive attribute with multiple values and that of several sensitive attributes with multiple values. Moreover, we provide an algorithmic effectiveness analysis for ApproxDist under certain assumptions to explain how well it could work. The empirical results demonstrate that our proposed fairness measure HFM is valid and approximation algorithms (i.e., ApproxDist and ExtendDist) are effective and efficient.
- Abstract(参考訳): 機械学習(ML)モデルによる差別緩和は、階層的かつ歴史的に複数の要因が相互に織り合わされるため、複雑になる可能性がある。
しかし、複数の機密属性に直面した上で、MLモデル内の差別レベルをキャプチャできる既存の公正度対策はほとんどない。
このギャップを埋めるために,2つのオプション版を持つ「多様体による調和公正度尺度(HFM)」と呼ばれる,多様体の観点からの集合間の距離に基づく公正度尺度を提案する。
さらに,集合の距離の計算を高速化するため,複数の値を持つ1つの感度属性に対する集合間の距離の近似 (ApproxDist) と,複数の値を持つ複数の感度属性に対する集合間の距離の近似 (ExtendDist) という2つの近似アルゴリズムを提案する。
さらに,ApproxDistのアルゴリズムによる有効性解析を行い,その有効性を説明する。
実験の結果,提案した公正度測定法は有効であり,近似アルゴリズム(ApproxDistとExtendedDist)は有効かつ効率的であることがわかった。
関連論文リスト
- Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - Learning Feature Inversion for Multi-class Anomaly Detection under General-purpose COCO-AD Benchmark [101.23684938489413]
異常検出(AD)は、しばしば産業品質検査や医学的病変検査のための異常の検出に焦点が当てられている。
この研究はまず、COCOをADフィールドに拡張することにより、大規模で汎用的なCOCO-ADデータセットを構築する。
セグメンテーション分野のメトリクスにインスパイアされた我々は、より実用的なしきい値に依存したAD固有のメトリクスをいくつか提案する。
論文 参考訳(メタデータ) (2024-04-16T17:38:26Z) - Multi-Class Anomaly Detection based on Regularized Discriminative
Coupled hypersphere-based Feature Adaptation [85.15324009378344]
本稿では,修正正規化識別変分オートエンコーダ(RD-VAE)によって得られたクラス識別特性を特徴抽出プロセスに組み込んだ新しいモデルを提案する。
提案した正規化識別型超球型特徴適応(RD-CFA)は,多クラス異常検出のための解である。
論文 参考訳(メタデータ) (2023-11-24T14:26:07Z) - A Sequentially Fair Mechanism for Multiple Sensitive Attributes [0.46040036610482665]
アルゴリズムフェアネスの標準的なユースケースでは、感度変数と対応するスコアの関係を排除することが目標である。
センシティブな特徴の集合にまたがって、段階的に公平性を達成できるシーケンシャルなフレームワークを提案する。
当社のアプローチは、リスクと不公平の間のトレードオフを緩和するフレームワークを包含することで、公平性をシームレスに拡張します。
論文 参考訳(メタデータ) (2023-09-12T22:31:57Z) - Robust Domain Adaptive Object Detection with Unified Multi-Granularity Alignment [59.831917206058435]
ドメイン適応検出は、ターゲットドメイン上の検出器の一般化を改善することを目的としている。
近年のアプローチは、異なる粒度の特徴アライメントを通じて、逆学習を通じてドメイン適応を実現する。
ドメイン不変な特徴学習のための統合多重粒度アライメント(MGA)に基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-01T08:38:07Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。