論文の概要: Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks
- arxiv url: http://arxiv.org/abs/2507.20708v1
- Date: Mon, 28 Jul 2025 11:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.08553
- Title: Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks
- Title(参考訳): フェアネスのイラシオンを露呈する:分散操作攻撃に対する脆弱性の検証
- Authors: Valentin Lafargue, Adriana Laurindo Monteiro, Emmanuelle Claeys, Laurent Risser, Jean-Michel Loubes,
- Abstract要約: 規制主導の監査は、世界的な公正度指標にますます依存している。
フェアネス基準を人工的に満たすためのデータサンプルの操作方法を示す。
次に、このような操作を検出する方法を研究する。
- 参考スコア(独自算出の注目度): 4.44828379498865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proving the compliance of AI algorithms has become an important challenge with the growing deployment of such algorithms for real-life applications. Inspecting possible biased behaviors is mandatory to satisfy the constraints of the regulations of the EU Artificial Intelligence's Act. Regulation-driven audits increasingly rely on global fairness metrics, with Disparate Impact being the most widely used. Yet such global measures depend highly on the distribution of the sample on which the measures are computed. We investigate first how to manipulate data samples to artificially satisfy fairness criteria, creating minimally perturbed datasets that remain statistically indistinguishable from the original distribution while satisfying prescribed fairness constraints. Then we study how to detect such manipulation. Our analysis (i) introduces mathematically sound methods for modifying empirical distributions under fairness constraints using entropic or optimal transport projections, (ii) examines how an auditee could potentially circumvent fairness inspections, and (iii) offers recommendations to help auditors detect such data manipulations. These results are validated through experiments on classical tabular datasets in bias detection.
- Abstract(参考訳): AIアルゴリズムの遵守の証明は、現実のアプリケーションへのそのようなアルゴリズムの展開の増大において重要な課題となっている。
バイアスのある行動の検査は、EU人工知能法(英語版)の規制の制約を満たすことが義務付けられている。
規制主導の監査はグローバルフェアネスの指標にますます依存しており、最も広く使用されているのはDisparate Impactである。
しかし、このようなグローバルな測度は、その測度が計算されるサンプルの分布に大きく依存する。
まず,データサンプルを人工的にフェアネス基準を満たすように操作する方法について検討し,所定のフェアネス制約を満たしつつ,元の分布と統計的に区別できない最小限の摂動データセットを作成する。
そして、このような操作を検出する方法を研究する。
分析
一 エントロピー的又は最適輸送予測を用いて、公正な制約の下で経験的分布を変更するための数学的に健全な方法を導入すること。
二 監査人が公正検査を回避できるかどうかを検査し、
(iii) 監査人がこのようなデータ操作を検出するのを支援するためのレコメンデーションを提供する。
これらの結果は、バイアス検出における古典的な表形式のデータセットの実験を通じて検証される。
関連論文リスト
- Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Conformal Validity Guarantees Exist for Any Data Distribution (and How to Find Them) [14.396431159723297]
理論上,共形予測はテキスト共同データ分布に拡張可能であることを示す。
最も一般的なケースは計算に実用的でないが、具体的には特定の共形アルゴリズムを導出するための手順を概説する。
論文 参考訳(メタデータ) (2024-05-10T17:40:24Z) - A Brief Tutorial on Sample Size Calculations for Fairness Audits [6.66743248310448]
本チュートリアルでは、フェアネス監査に必要なサブグループサンプルサイズを決定する方法についてのガイダンスを提供する。
本研究は,2値分類モデルと混同行列の要約として導出された多重公平度指標の監査に適用できる。
論文 参考訳(メタデータ) (2023-12-07T22:59:12Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Auditing Fairness by Betting [43.515287900510934]
我々は,デプロイされた分類モデルと回帰モデルの公平性を評価するための,実用的で効率的で非パラメトリックな手法を提供する。
我々の手法は逐次的であり、入ってくるデータの継続的なモニタリングを可能にする。
提案手法の有効性を3つのベンチマークフェアネスデータセットに示す。
論文 参考訳(メタデータ) (2023-05-27T20:14:11Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。