論文の概要: UniAud: A Unified Auditing Framework for High Auditing Power and Utility with One Training Run
- arxiv url: http://arxiv.org/abs/2507.04457v1
- Date: Sun, 06 Jul 2025 16:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.193304
- Title: UniAud: A Unified Auditing Framework for High Auditing Power and Utility with One Training Run
- Title(参考訳): UniAud: 1回のトレーニングで高い監査力と実用性を実現する統一監査フレームワーク
- Authors: Ruixuan Liu, Li Xiong,
- Abstract要約: データに依存しない監査のための統合フレームワークUniAudを提案する。
データ依存監査のためのUniAud++として、このフレームワークを拡張します。
我々は,O(T)監査の最先端の監査結果と数千ランの監査結果とが一致していることを示す。
- 参考スコア(独自算出の注目度): 9.400936999321415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private (DP) optimization has been widely adopted as a standard approach to provide rigorous privacy guarantees for training datasets. DP auditing verifies whether a model trained with DP optimization satisfies its claimed privacy level by estimating empirical privacy lower bounds through hypothesis testing. Recent O(1) frameworks improve auditing efficiency by checking the membership status of multiple audit samples in a single run, rather than checking individual samples across multiple runs. However, we reveal that there is no free lunch for this improved efficiency: data dependency and an implicit conflict between auditing and utility impair the tightness of the auditing results. Addressing these challenges, our key insights include reducing data dependency through uncorrelated data and resolving the auditing-utility conflict by decoupling the criteria for effective auditing and separating objectives for utility and auditing. We first propose a unified framework, UniAud, for data-independent auditing that maximizes auditing power through a novel uncorrelated canary construction and a self-comparison framework. We then extend this framework as UniAud++ for data-dependent auditing, optimizing the auditing and utility trade-off through multi-task learning with separate objectives for auditing and training. Experimental results validate that our black-box O(1) framework matches the state-of-the-art auditing results of O(T) auditing with thousands of runs, demonstrating the best efficiency-auditing trade-off across vision and language tasks. Additionally, our framework provides meaningful auditing with only slight utility degradation compared to standard DP training, showing the optimal utility-auditing trade-off and the benefit of requiring no extra training for auditing.
- Abstract(参考訳): 差分プライベート(DP)最適化は、データセットのトレーニングに厳格なプライバシー保証を提供するための標準アプローチとして広く採用されている。
DP監査は、DP最適化で訓練されたモデルが、仮説テストを通じて経験的プライバシーの低い境界を推定することによって、主張されたプライバシーレベルを満たすかどうかを検証する。
最近のO(1)フレームワークは、複数の監査サンプルのメンバシップステータスを1回の実行でチェックすることで、監査効率を向上させる。
しかし、この改善された効率のために無料のランチがないことが明らかになった。データ依存と監査とユーティリティ間の暗黙の衝突は、監査結果の厳しさを損なう。
これらの課題に対処するためには、非相関データによるデータ依存の低減と、効果的な監査の基準を分離し、ユーティリティと監査の目的を分離することで監査とユーティリティの対立を解決することが含まれる。
我々はまず、新しい非相関なカナリア構造と自己比較フレームワークを通じて監査力を最大化するデータ非依存監査のための統一的なフレームワークUniAudを提案する。
次に、データ依存監査のためのUniAud++としてこのフレームワークを拡張し、監査とトレーニングのための別々の目的を持つマルチタスク学習を通じて、監査とユーティリティトレードオフを最適化します。
実験の結果、我々のブラックボックスO(1)フレームワークは、O(T)監査の最先端の監査結果と数千ランのランニングを一致させ、視覚と言語タスク間の最良の効率監査トレードオフを実証した。
さらに,本フレームワークは,標準的なDPトレーニングと比較して,有意義な監査機能しか提供せず,最適ユーティリティ監査トレードオフと,監査に余分なトレーニングを要さないメリットを示す。
関連論文リスト
- How Well Can Differential Privacy Be Audited in One Run? [2.687273760177295]
我々は,1回の監査で達成可能な最大効果を特徴付けるとともに,その有効性の鍵となる障壁は,異なるデータ要素の観測可能な効果間の干渉であることを示す。
本稿では,この障壁を最小化するための新しい概念的アプローチを提案する。
論文 参考訳(メタデータ) (2025-03-10T11:32:30Z) - Access Denied: Meaningful Data Access for Quantitative Algorithm Audits [4.182284365432724]
第三者監査はしばしばアクセス制限によって妨げられ、監査人は制限された低品質のデータに頼らざるを得ない。
本研究は,リシディズムと医療カバレッジ予測のための2つの現実的なケーススタディの監査シミュレーションを行う。
データの最小化と匿名化のプラクティスは、個々のレベルのデータのエラー率を強く向上させ、信頼性の低い評価につながることが分かっています。
論文 参考訳(メタデータ) (2025-02-01T13:33:45Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - TrustFed: A Reliable Federated Learning Framework with Malicious-Attack
Resistance [8.924352407824566]
フェデレートラーニング(FL)は、個々のデータのプライバシを確保しながら、複数のクライアント間で協調的な学習を可能にする。
本稿では,階層型監査に基づくFL(HiAudit-FL)フレームワークを提案する。
シミュレーションの結果、HiAudit-FLは、システムオーバーヘッドを小さくして、潜在的悪意のあるユーザを効果的に識別し、対処できることが示されている。
論文 参考訳(メタデータ) (2023-12-06T13:56:45Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Sequential Kernelized Independence Testing [77.237958592189]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Multi-view Contrastive Self-Supervised Learning of Accounting Data
Representations for Downstream Audit Tasks [1.9659095632676094]
国際監査基準では、財務諸表の根底にある会計取引を直接評価する必要がある。
ディープラーニングにインスパイアされた監査技術は、大量のジャーナルエントリデータを監査する分野に現れている。
本研究では,監査タスク不変な会計データ表現の学習を目的とした,自己指導型自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-23T08:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。