論文の概要: Inducing Uncertainty for Test-Time Privacy
- arxiv url: http://arxiv.org/abs/2509.11625v1
- Date: Mon, 15 Sep 2025 06:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.173406
- Title: Inducing Uncertainty for Test-Time Privacy
- Title(参考訳): テスト時のプライバシのための不確実性の導入
- Authors: Muhammad H. Ashiq, Peter Triantafillou, Hung Yun Tseng, Grigoris G. Chrysos,
- Abstract要約: 私たちはこの脅威モデルを、未学習が防げない、*テストタイムのプライバシ*と呼んでいる。
特に、完全なモデルアクセスを持つ敵は、テスト時のプライバシを保証するナイーブな防御をバイパスすることができる。
モデル重みを摂動することで、保護されたインスタンスの最大不確実性を誘導し、残りのインスタンスの精度を保つアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.8031924942083517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlearning is the predominant method for removing the influence of data in machine learning models. However, even after unlearning, models often continue to produce the same predictions on the unlearned data with high confidence. This persistent behavior can be exploited by adversaries using confident model predictions on incorrect or obsolete data to harm users. We call this threat model, which unlearning fails to protect against, *test-time privacy*. In particular, an adversary with full model access can bypass any naive defenses which ensure test-time privacy. To address this threat, we introduce an algorithm which perturbs model weights to induce maximal uncertainty on protected instances while preserving accuracy on the rest of the instances. Our core algorithm is based on finetuning with a Pareto optimal objective that explicitly balances test-time privacy against utility. We also provide a certifiable approximation algorithm which achieves $(\varepsilon, \delta)$ guarantees without convexity assumptions. We then prove a tight, non-vacuous bound that characterizes the privacy-utility tradeoff that our algorithms incur. Empirically, our method obtains $>3\times$ stronger uncertainty than pretraining with $<0.2\%$ drops in accuracy on various image recognition benchmarks. Altogether, this framework provides a tool to guarantee additional protection to end users.
- Abstract(参考訳): アンラーニングは、機械学習モデルにおけるデータの影響を取り除く主要な方法である。
しかし、学習が終わっても、モデルはしばしば、未学習のデータを高い信頼性で予測し続けます。
この永続的な振る舞いは、不正確なデータや古いデータに対する確実なモデル予測を使用して、ユーザを害する。
私たちはこの脅威モデルを、未学習が防げない、*テストタイムのプライバシ*と呼んでいる。
特に、完全なモデルアクセスを持つ敵は、テスト時のプライバシを保証するナイーブな防御をバイパスすることができる。
この脅威に対処するために、モデルウェイトを摂動させ、保護されたインスタンスの最大不確実性を誘導し、残りのインスタンスの精度を保ったアルゴリズムを導入する。
私たちのコアアルゴリズムは、テスト時のプライバシとユーティリティとのバランスを明確にする、Paretoの最適目的による微調整に基づいています。
また、凸性仮定なしで$(\varepsilon, \delta)$保証を達成できる認証近似アルゴリズムも提供する。
そして、アルゴリズムが生み出すプライバシーとユーティリティのトレードオフを特徴付ける、厳密で非空白な境界を証明します。
提案手法は,画像認識ベンチマークにおいて,<0.2\%$の精度で事前学習するよりも,$>3\times$強い不確実性が得られる。
このフレームワークは、エンドユーザーにさらなる保護を保証するツールを提供する。
関連論文リスト
- Reminiscence Attack on Residuals: Exploiting Approximate Machine Unlearning for Privacy [18.219835803238837]
非学習アルゴリズムは、未学習データのプライバシーを適切に保護できないことを示す。
本稿では,残余と会員のプライバシーの相関を増幅するReminiscence Attack (ReA)を提案する。
我々は,まず深層無学習データトレースを除去し,収束安定性を強制する二相近似学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-07-28T07:12:12Z) - Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Coverage-Guaranteed Speech Emotion Recognition via Calibrated Uncertainty-Adaptive Prediction Sets [0.0]
しばしば感情的な抑圧と突然のアウトバーストによって引き起こされる道路の怒りは、衝突や攻撃的な行動を引き起こすことによって道路の安全を著しく脅かす。
音声感情認識技術は、ネガティブな感情を早期に識別し、タイムリーな警告を発することにより、このリスクを軽減することができる。
本稿では,予測精度を統計的に厳格に保証するリスク制御予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-24T12:26:28Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Training Private Models That Know What They Don't Know [40.19666295972155]
いくつかの一般的な選択的予測手法は、差分的にプライベートな環境では効果がないことがわかった。
モデルユーティリティレベルを越えた選択予測性能を分離する新しい評価機構を提案する。
論文 参考訳(メタデータ) (2023-05-28T12:20:07Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。