論文の概要: Auditing Fairness under Model Updates: Fundamental Complexity and Property-Preserving Updates
- arxiv url: http://arxiv.org/abs/2601.05909v1
- Date: Fri, 09 Jan 2026 16:28:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.034446
- Title: Auditing Fairness under Model Updates: Fundamental Complexity and Property-Preserving Updates
- Title(参考訳): モデル更新による公正さの検証:基本的複雑さとプロパティ保存更新
- Authors: Ayoub Ajarra, Debabrota Basu,
- Abstract要約: 任意の更新の下でグループフェアネス監査について検討する。
本稿では,実証的財産最適化(EPO)に基づくPAC監査のための汎用フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.205253587709525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models become increasingly embedded in societal infrastructure, auditing them for bias is of growing importance. However, in real-world deployments, auditing is complicated by the fact that model owners may adaptively update their models in response to changing environments, such as financial markets. These updates can alter the underlying model class while preserving certain properties of interest, raising fundamental questions about what can be reliably audited under such shifts. In this work, we study group fairness auditing under arbitrary updates. We consider general shifts that modify the pre-audit model class while maintaining invariance of the audited property. Our goals are two-fold: (i) to characterize the information complexity of allowable updates, by identifying which strategic changes preserve the property under audit; and (ii) to efficiently estimate auditing properties, such as group fairness, using a minimal number of labeled samples. We propose a generic framework for PAC auditing based on an Empirical Property Optimization (EPO) oracle. For statistical parity, we establish distribution-free auditing bounds characterized by the SP dimension, a novel combinatorial measure that captures the complexity of admissible strategic updates. Finally, we demonstrate that our framework naturally extends to other auditing objectives, including prediction error and robust risk.
- Abstract(参考訳): 機械学習モデルが社会インフラにますます埋め込まれていくにつれ、バイアスに対する監査の重要性が増している。
しかし、実際の展開では、モデル所有者が金融市場のような環境の変化に応じてモデルを適応的に更新できるという事実により、監査は複雑である。
これらの更新は、関心のある特性を保ちながら、基礎となるモデルクラスを変更することができ、そのようなシフトの下で確実に監査できるものに関する根本的な疑問を提起する。
本研究では,任意の更新の下でグループフェアネス監査を行う。
監査対象プロパティの不変性を保ちながら、事前監査モデルクラスを変更する一般的なシフトについて検討する。
私たちのゴールは2つあります。
一 監査対象の財産をどの戦略変更で保持するかを特定することにより、許可可能な更新の情報複雑さを特徴付けること。
(2)最小限のラベル付きサンプルを用いて,グループフェアネスなどの監査特性を効率的に推定する。
本稿では,実証的財産最適化(EPO)に基づくPAC監査のための汎用フレームワークを提案する。
本研究では,SP次元を特徴とする分布自由監査境界を確立する。これは,許容可能な戦略更新の複雑さを捉える新しい組合せ尺度である。
最後に,我々のフレームワークは,予測誤差やロバストリスクなど,他の監査対象にまで自然に拡張されていることを実証する。
関連論文リスト
- FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models [79.41859481668618]
大規模言語モデル(LLM)はファクトチェック研究を大幅に進歩させた。
既存のファクトチェック評価手法は静的データセットと分類基準に依存している。
本稿では, LLMのファクトチェック機能を適応的かつ動的に評価するエージェント駆動型フレームワークであるFACT-AUDITを紹介する。
論文 参考訳(メタデータ) (2025-02-25T07:44:22Z) - Active Fourier Auditor for Estimating Distributional Properties of ML Models [10.581140430698103]
堅牢性、個人的公正性、グループ的公正性という3つの特性に注目します。
我々は,監査下のMLモデルのフーリエ係数の観点から,異なる特性を定量化する新しいフレームワークを開発する。
我々は、AFAの推定値に基づいて高い確率誤差境界を導出し、サンプルの複雑さに関する最悪の低い境界を検査するために導出する。
論文 参考訳(メタデータ) (2024-10-10T16:57:01Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Federated Continual Learning to Detect Accounting Anomalies in Financial
Auditing [1.2205797997133396]
本稿では,分散クライアントから監査モデルを継続的に学習できるフェデレーション型継続的学習フレームワークを提案する。
組織活動の共通シナリオにおける会計異常を検知するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2022-10-26T21:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。