論文の概要: FairSense: Long-Term Fairness Analysis of ML-Enabled Systems
- arxiv url: http://arxiv.org/abs/2501.01665v1
- Date: Fri, 03 Jan 2025 06:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:43.239944
- Title: FairSense: Long-Term Fairness Analysis of ML-Enabled Systems
- Title(参考訳): FairSense:ML対応システムの長期公正分析
- Authors: Yining She, Sumon Biswas, Christian Kästner, Eunsuk Kang,
- Abstract要約: 多くのテスト、検証、バイアス軽減技術が、機械学習モデルにおける公平性の問題を特定し、軽減するために提案されている。
本研究では,ML対応システムの長期不公平性を検知・解析するFairSenseというシミュレーションベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.627583314024944
- License:
- Abstract: Algorithmic fairness of machine learning (ML) models has raised significant concern in the recent years. Many testing, verification, and bias mitigation techniques have been proposed to identify and reduce fairness issues in ML models. The existing methods are model-centric and designed to detect fairness issues under static settings. However, many ML-enabled systems operate in a dynamic environment where the predictive decisions made by the system impact the environment, which in turn affects future decision-making. Such a self-reinforcing feedback loop can cause fairness violations in the long term, even if the immediate outcomes are fair. In this paper, we propose a simulation-based framework called FairSense to detect and analyze long-term unfairness in ML-enabled systems. Given a fairness requirement, FairSense performs Monte-Carlo simulation to enumerate evolution traces for each system configuration. Then, FairSense performs sensitivity analysis on the space of possible configurations to understand the impact of design options and environmental factors on the long-term fairness of the system. We demonstrate FairSense's potential utility through three real-world case studies: Loan lending, opioids risk scoring, and predictive policing.
- Abstract(参考訳): 機械学習モデル(ML)のアルゴリズム的公正性は近年大きな関心を集めている。
多くのテスト、検証、バイアス軽減技術がMLモデルの公平性問題を特定し、軽減するために提案されている。
既存のメソッドはモデル中心であり、静的な設定下での公平性の問題を検出するように設計されている。
しかし、多くのML対応システムは、システムによる予測決定が環境に影響を与える動的な環境で動作し、それによって将来の意思決定に影響を及ぼす。
このような自己強化フィードバックループは、たとえ即時の結果が公平であっても、長期的な公正性違反を引き起こす可能性がある。
本稿では,ML対応システムの長期不公平性を検知・解析するFairSenseというシミュレーションベースのフレームワークを提案する。
フェアネス要件を前提として、FairSenseはモンテカルロシミュレーションを実行し、各システム構成の進化トレースを列挙する。
そして、FairSenseは、設計オプションと環境要因がシステムの長期的公正性に与える影響を理解するために、可能な構成の空間に対する感度分析を行う。
FairSenseの潜在的な実用性は、ローン融資、オピオイドリスクスコアリング、予測警察という3つの現実世界のケーススタディを通して実証する。
関連論文リスト
- Unbiasing on the Fly: Explanation-Guided Human Oversight of Machine Learning System Decisions [4.24106429730184]
本稿では,デプロイされたMLシステムにおいて,オンザフライトラッキングと識別の補正のための新しいフレームワークを提案する。
このフレームワークは、MLシステムによる予測を継続的に監視し、差別的な結果をフラグ付けする。
このHuman-in-the-loopアプローチは、レビュアーがMLシステム決定を受け入れたり、無効にしたりすることを可能にする。
論文 参考訳(メタデータ) (2024-06-25T19:40:55Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Procedural Fairness in Machine Learning [8.034966749391902]
まず、MLモデルの手続き的公正性を定義し、その後、個人的およびグループ的手続き的公正性の形式的定義を与える。
本稿では,GPF_FAE$と呼ばれるMLモデルの群手続き的公正性を評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2024-04-02T12:05:02Z) - Fairness Feedback Loops: Training on Synthetic Data Amplifies Bias [47.79659355705916]
モデル誘導分散シフト(MIDS)は、以前のモデルが代々のモデルに対して汚染された新しいモデルトレーニングセットを出力するときに発生する。
我々は,複数世代にわたるMIDSの追跡を可能にするフレームワークを導入し,性能,公平性,少数化グループ表現の損失につながることを確認した。
これらの否定的な結果にもかかわらず、モデルがデータエコシステムにおけるポジティブで意図的な介入にどのように使用されるかを特定します。
論文 参考訳(メタデータ) (2024-03-12T17:48:08Z) - Counterfactually Fair Regression with Double Machine Learning [0.0]
本稿では,Double Machine Learning (DML) Fairnessを提案する。
回帰問題における反ファクト的公平性の問題を因果推論における反ファクト的結果の推定問題に類似させる。
本研究は、職場雇用における差別に関するシミュレーション研究におけるアプローチと、法学部学生のGPAを推定する実データへの適用を実証する。
論文 参考訳(メタデータ) (2023-03-21T01:28:23Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fair AutoML [18.451193430486175]
我々は、予測精度だけでなく、公正な機械学習モデルを見つけるために、エンドツーエンドの自動機械学習システムを提案する。
システムは、予測精度、公平性、およびフライ時の資源消費に応じて、いつ、どのモデルが不公平を緩和するかを動的に決定する戦略を含む。
論文 参考訳(メタデータ) (2021-11-11T23:08:34Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。