論文の概要: Approximating Discrimination Within Models When Faced With Several Non-Binary Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2408.06099v2
- Date: Sun, 18 May 2025 20:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.207088
- Title: Approximating Discrimination Within Models When Faced With Several Non-Binary Sensitive Attributes
- Title(参考訳): 数個の非バイナリ感性属性に直面したモデルにおける識別の近似
- Authors: Yijun Bian, Yujie Luo, Ping Xu,
- Abstract要約: 多様体から見た集合間の距離に基づくフェアネス測度を提案し、「マニフォールドによる調和フェアネス測度」(HFM)と命名する。
HFMを直接計算することは、そのサブプロデューサ(集合の距離の計算)を加速するためにコストがかかる可能性があるので、近似アルゴリズムを2つ提案する。
提案した公正度測定法は有効であり,近似アルゴリズム(近似Dist,拡張Dist)は効率的かつ効率的である。
- 参考スコア(独自算出の注目度): 4.731404257629232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrimination mitigation within machine learning (ML) models could be complicated because multiple factors may be interwoven hierarchically and historically. Yet few existing fairness measures can capture the discrimination level within ML models in the face of multiple sensitive attributes (SAs). To bridge this gap, we propose a fairness measure based on distances between sets from a manifold perspective, named as 'Harmonic Fairness measure via Manifolds (HFM)' with two optional versions, which can deal with a fine-grained discrimination evaluation for several SAs of multiple values. Because directly computing HFM may be costly, to accelerate its subprocedure -- the computation of distances of sets, we further propose two approximation algorithms named 'Approximation of distance between sets for one sensitive attribute with multiple values (ApproxDist)' and 'Approximation of extended distance between sets for several sensitive attributes with multiple values (ExtendDist)' to respectively resolve bias evaluation of one single SA with multiple values and that of several SAs with multiple values. Moreover, we provide an algorithmic effectiveness analysis for ApproxDist under certain assumptions to explain how well it could work. The empirical results demonstrate that our proposed fairness measure HFM is valid and approximation algorithms (i.e. ApproxDist and ExtendDist) are effective and efficient.
- Abstract(参考訳): 機械学習(ML)モデルにおける差別緩和は、階層的かつ歴史的に複数の要因が織り込まれるため、複雑になる可能性がある。
しかし、複数の機密属性(SA)に直面して、MLモデル内の差別レベルをキャプチャできる既存の公正度尺度はほとんどない。
このギャップを埋めるために、多様体の観点からの集合間の距離に基づくフェアネス測度を提案し、複数の値のSAに対してきめ細かな識別評価を行うことができる2つのオプション版を持つ「マニフォールドによる調和フェアネス測度 (HFM) 」と命名する。
HFMを直接計算することはコストがかかるため、集合の距離の計算を高速化するため、「複数の値を持つ1つの感度属性に対する集合間距離の近似」(ApproxDist)と、「複数の値を持つ複数の感度属性に対する集合間距離の近似」(ExtendDist)という2つの近似アルゴリズムを提案し、複数の値を持つ1つのSAと複数の値を持つ複数のSAのバイアス評価をそれぞれ解決する。
さらに,ApproxDistのアルゴリズムによる有効性解析を行い,その有効性を説明する。
実験の結果,提案した公正度尺度HFMは有効であり,近似アルゴリズム(近似Dist,拡張Dist)は有効かつ効率的であることが示された。
関連論文リスト
- Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - Learning Feature Inversion for Multi-class Anomaly Detection under General-purpose COCO-AD Benchmark [101.23684938489413]
異常検出(AD)は、しばしば産業品質検査や医学的病変検査のための異常の検出に焦点が当てられている。
この研究はまず、COCOをADフィールドに拡張することにより、大規模で汎用的なCOCO-ADデータセットを構築する。
セグメンテーション分野のメトリクスにインスパイアされた我々は、より実用的なしきい値に依存したAD固有のメトリクスをいくつか提案する。
論文 参考訳(メタデータ) (2024-04-16T17:38:26Z) - Multi-Class Anomaly Detection based on Regularized Discriminative
Coupled hypersphere-based Feature Adaptation [85.15324009378344]
本稿では,修正正規化識別変分オートエンコーダ(RD-VAE)によって得られたクラス識別特性を特徴抽出プロセスに組み込んだ新しいモデルを提案する。
提案した正規化識別型超球型特徴適応(RD-CFA)は,多クラス異常検出のための解である。
論文 参考訳(メタデータ) (2023-11-24T14:26:07Z) - A Sequentially Fair Mechanism for Multiple Sensitive Attributes [0.46040036610482665]
アルゴリズムフェアネスの標準的なユースケースでは、感度変数と対応するスコアの関係を排除することが目標である。
センシティブな特徴の集合にまたがって、段階的に公平性を達成できるシーケンシャルなフレームワークを提案する。
当社のアプローチは、リスクと不公平の間のトレードオフを緩和するフレームワークを包含することで、公平性をシームレスに拡張します。
論文 参考訳(メタデータ) (2023-09-12T22:31:57Z) - Robust Domain Adaptive Object Detection with Unified Multi-Granularity Alignment [59.831917206058435]
ドメイン適応検出は、ターゲットドメイン上の検出器の一般化を改善することを目的としている。
近年のアプローチは、異なる粒度の特徴アライメントを通じて、逆学習を通じてドメイン適応を実現する。
ドメイン不変な特徴学習のための統合多重粒度アライメント(MGA)に基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-01T08:38:07Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。