論文の概要: Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks
- arxiv url: http://arxiv.org/abs/2507.20708v1
- Date: Mon, 28 Jul 2025 11:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.08553
- Title: Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks
- Title(参考訳): フェアネスのイラシオンを露呈する:分散操作攻撃に対する脆弱性の検証
- Authors: Valentin Lafargue, Adriana Laurindo Monteiro, Emmanuelle Claeys, Laurent Risser, Jean-Michel Loubes,
- Abstract要約: 規制主導の監査は、世界的な公正度指標にますます依存している。
フェアネス基準を人工的に満たすためのデータサンプルの操作方法を示す。
次に、このような操作を検出する方法を研究する。
- 参考スコア(独自算出の注目度): 4.44828379498865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proving the compliance of AI algorithms has become an important challenge with the growing deployment of such algorithms for real-life applications. Inspecting possible biased behaviors is mandatory to satisfy the constraints of the regulations of the EU Artificial Intelligence's Act. Regulation-driven audits increasingly rely on global fairness metrics, with Disparate Impact being the most widely used. Yet such global measures depend highly on the distribution of the sample on which the measures are computed. We investigate first how to manipulate data samples to artificially satisfy fairness criteria, creating minimally perturbed datasets that remain statistically indistinguishable from the original distribution while satisfying prescribed fairness constraints. Then we study how to detect such manipulation. Our analysis (i) introduces mathematically sound methods for modifying empirical distributions under fairness constraints using entropic or optimal transport projections, (ii) examines how an auditee could potentially circumvent fairness inspections, and (iii) offers recommendations to help auditors detect such data manipulations. These results are validated through experiments on classical tabular datasets in bias detection.
- Abstract(参考訳): AIアルゴリズムの遵守の証明は、現実のアプリケーションへのそのようなアルゴリズムの展開の増大において重要な課題となっている。
バイアスのある行動の検査は、EU人工知能法(英語版)の規制の制約を満たすことが義務付けられている。
規制主導の監査はグローバルフェアネスの指標にますます依存しており、最も広く使用されているのはDisparate Impactである。
しかし、このようなグローバルな測度は、その測度が計算されるサンプルの分布に大きく依存する。
まず,データサンプルを人工的にフェアネス基準を満たすように操作する方法について検討し,所定のフェアネス制約を満たしつつ,元の分布と統計的に区別できない最小限の摂動データセットを作成する。
そして、このような操作を検出する方法を研究する。
分析
一 エントロピー的又は最適輸送予測を用いて、公正な制約の下で経験的分布を変更するための数学的に健全な方法を導入すること。
二 監査人が公正検査を回避できるかどうかを検査し、
(iii) 監査人がこのようなデータ操作を検出するのを支援するためのレコメンデーションを提供する。
これらの結果は、バイアス検出における古典的な表形式のデータセットの実験を通じて検証される。
関連論文リスト
- On the Interconnections of Calibration, Quantification, and Classifier Accuracy Prediction under Dataset Shift [58.91436551466064]
本稿では,データセットシフト条件下でのキャリブレーションと定量化の3つの基本問題間の相互接続について検討する。
これらのタスクのいずれか1つに対するオラクルへのアクセスは、他の2つのタスクの解決を可能にすることを示す。
本稿では,他の分野から借用した高度に確立された手法の直接適応に基づく各問題に対する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-16T15:42:55Z) - Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Conformal Validity Guarantees Exist for Any Data Distribution (and How to Find Them) [14.396431159723297]
理論上,共形予測はテキスト共同データ分布に拡張可能であることを示す。
最も一般的なケースは計算に実用的でないが、具体的には特定の共形アルゴリズムを導出するための手順を概説する。
論文 参考訳(メタデータ) (2024-05-10T17:40:24Z) - A Brief Tutorial on Sample Size Calculations for Fairness Audits [6.66743248310448]
本チュートリアルでは、フェアネス監査に必要なサブグループサンプルサイズを決定する方法についてのガイダンスを提供する。
本研究は,2値分類モデルと混同行列の要約として導出された多重公平度指標の監査に適用できる。
論文 参考訳(メタデータ) (2023-12-07T22:59:12Z) - Assumption violations in causal discovery and the robustness of score matching [38.60630271550033]
本稿では、最近の因果発見手法の観測データに対する実証的性能を広範囲にベンチマークする。
スコアマッチングに基づく手法は、推定されたグラフの偽陽性と偽陰性率において驚くべき性能を示すことを示す。
本論文は,因果発見手法の評価のための新しい基準を策定することを願っている。
論文 参考訳(メタデータ) (2023-10-20T09:56:07Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Auditing Fairness by Betting [43.515287900510934]
我々は,デプロイされた分類モデルと回帰モデルの公平性を評価するための,実用的で効率的で非パラメトリックな手法を提供する。
我々の手法は逐次的であり、入ってくるデータの継続的なモニタリングを可能にする。
提案手法の有効性を3つのベンチマークフェアネスデータセットに示す。
論文 参考訳(メタデータ) (2023-05-27T20:14:11Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Adaptive Data Debiasing through Bounded Exploration and Fairness [19.082622108240585]
アルゴリズム決定規則の訓練に使用される既存のデータセットのバイアスは、倫理的、社会的、経済的懸念を提起する。
本稿では,適応探索と有界探索により,これらのデータセットを逐次デバイアスするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-25T15:50:10Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。