論文の概要: Generalized Leverage Score for Scalable Assessment of Privacy Vulnerability
- arxiv url: http://arxiv.org/abs/2602.15919v1
- Date: Tue, 17 Feb 2026 07:07:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.396327
- Title: Generalized Leverage Score for Scalable Assessment of Privacy Vulnerability
- Title(参考訳): プライバシ脆弱性のスケーラブルな評価のための一般化レバレッジスコア
- Authors: Valentin Dorseuil, Jamal Atif, Olivier Cappé,
- Abstract要約: 会員推定攻撃(MIA)への曝露は、学習モデルに対するデータポイントの影響によって制御されることを示す。
我々は、個々のMIAリスクとレバレッジスコアの理論的対応を確立することにより、線形設定でこれを定式化する。
このキャラクタリゼーションは、訓練シャドウモデルの計算負担を伴わずに、データ依存感度が露出にどのように変換されるかを説明する。
- 参考スコア(独自算出の注目度): 6.029433950934382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can the privacy vulnerability of individual data points be assessed without retraining models or explicitly simulating attacks? We answer affirmatively by showing that exposure to membership inference attack (MIA) is fundamentally governed by a data point's influence on the learned model. We formalize this in the linear setting by establishing a theoretical correspondence between individual MIA risk and the leverage score, identifying it as a principled metric for vulnerability. This characterization explains how data-dependent sensitivity translates into exposure, without the computational burden of training shadow models. Building on this, we propose a computationally efficient generalization of the leverage score for deep learning. Empirical evaluations confirm a strong correlation between the proposed score and MIA success, validating this metric as a practical surrogate for individual privacy risk assessment.
- Abstract(参考訳): 個々のデータポイントのプライバシの脆弱性は、モデルを再トレーニングしたり、攻撃を明示的にシミュレートすることなく評価できるのか?
我々は、会員推測攻撃(MIA)への曝露が、学習モデルに対するデータポイントの影響によって根本的に制御されていることを示すことによって、肯定的に答える。
我々は、個々のMIAリスクとレバレッジスコアの理論的対応を確立することにより、これを線形設定で定式化し、脆弱性の原則的指標として特定する。
このキャラクタリゼーションは、訓練シャドウモデルの計算負担を伴わずに、データ依存感度が露出にどのように変換されるかを説明する。
これに基づいて,ディープラーニングのためのレバレッジスコアの計算効率の良い一般化を提案する。
実証評価では,提案したスコアとMIA成功の相関が強く,個人のプライバシーリスク評価の実践的サロゲートとして検証されている。
関連論文リスト
- RAPID: Risk of Attribute Prediction-Induced Disclosure in Synthetic Microdata [0.0]
本稿では,現実的な攻撃モデル下での推論的脆弱性を直接定量化する情報開示リスク尺度を提案する。
敵は、解放された合成データのみに基づいて予測モデルを訓練し、実際の個人の擬似識別器に適用する。
本報告では,攻撃者が真のクラスに対してどの程度の自信を持っているかを評価するためのベースライン正規化信頼度スコアを提案する。
論文 参考訳(メタデータ) (2026-02-09T22:03:11Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks [42.18575921329484]
我々は,情報理論の枠組みにおける可能性比攻撃(LiRA)の性能を解析する。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
論文 参考訳(メタデータ) (2024-02-16T13:41:18Z) - Impact of Dataset Properties on Membership Inference Vulnerability of Deep Transfer Learning [9.366691198320261]
メンバーシップ推論攻撃(MIA)は、機械学習モデルの実用的なプライバシをテストするために使用される。
固定された偽陽性率で攻撃者が有利である場合の非DPモデルの脆弱性は、単純な電力法則に従って減少することを示す。
論文 参考訳(メタデータ) (2024-02-07T14:23:01Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。