論文の概要: Do Parameters Reveal More than Loss for Membership Inference?
- arxiv url: http://arxiv.org/abs/2406.11544v2
- Date: Fri, 19 Jul 2024 15:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:58:09.292990
- Title: Do Parameters Reveal More than Loss for Membership Inference?
- Title(参考訳): パラメータは、メンバーシップ推論の損失よりも大きいか?
- Authors: Anshuman Suri, Xiao Zhang, David Evans,
- Abstract要約: 最適メンバーシップ推論には、ホワイトボックスアクセスが本当に必要であることを示す。
IHA (Inverse Hessian Attack) による新しいホワイトボックス推論攻撃による検討を行った。
以上の結果から,監査と敵の両方がモデルパラメータへのアクセスの恩恵を受ける可能性が示唆された。
- 参考スコア(独自算出の注目度): 10.790613359615717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference attacks aim to infer whether an individual record was used to train a model, serving as a key tool for disclosure auditing. While such evaluations are useful to demonstrate risk, they are computationally expensive and often make strong assumptions about potential adversaries' access to models and training environments, and thus do not provide very tight bounds on leakage from potential attacks. We show how prior claims around black-box access being sufficient for optimal membership inference do not hold for most useful settings such as stochastic gradient descent, and that optimal membership inference indeed requires white-box access. We validate our findings with a new white-box inference attack IHA (Inverse Hessian Attack) that explicitly uses model parameters by taking advantage of computing inverse-Hessian vector products. Our results show that both audits and adversaries may be able to benefit from access to model parameters, and we advocate for further research into white-box methods for membership privacy auditing.
- Abstract(参考訳): 会員推測攻撃は、個々のレコードがモデルのトレーニングに使用されたかどうかを推測することを目的としており、開示監査の鍵となるツールとして機能している。
このような評価はリスクを示すのに有用であるが、計算コストが高く、しばしば潜在的な敵がモデルや訓練環境にアクセスできることを強く仮定する。
我々は,ブラックボックス・アクセスに関する以前の主張が,確率勾配降下のような最も有用な設定には適さないことを示し,その最適メンバーシップ・アクセスにはホワイトボックス・アクセスが本当に必要であることを示す。
我々は,逆ヘッセンベクトル積の計算を生かして,モデルパラメータを明示的に用いた新しいホワイトボックス推論攻撃IHA (Inverse Hessian Attack) による検証を行った。
以上の結果から, モデルパラメータへのアクセスから, 監査と敵の双方が恩恵を受ける可能性が示唆され, 会員プライバシー監査のためのホワイトボックス手法のさらなる研究が提唱されている。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Better Membership Inference Privacy Measurement through Discrepancy [25.48677069802298]
本稿では,新たな経験的プライバシ指標を提案する。
我々は,この指標が複数のモデルのトレーニングを伴わず,大規模なイメージネット分類モデルに適用可能であることを示し,より最新で洗練されたトレーニングレシピでトレーニングされたモデルの既存の指標よりも有利であることを示した。
論文 参考訳(メタデータ) (2024-05-24T01:33:22Z) - GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation [4.332441337407564]
我々は,会員推論攻撃に対する感受性と,蒸留による攻撃を盗む機能に対する脆弱性との関係について検討する。
我々は,ブラックボックスニューラルネットワークに対するメンバシップ推論攻撃に対する蒸留誘導型アプローチであるGLiRAを提案する。
提案手法は,複数の画像分類データセットおよびモデルにまたがって評価され,知識蒸留によって誘導された場合の確率比攻撃が,ブラックボックス設定における最先端の会員推論攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T08:52:04Z) - Can Membership Inferencing be Refuted? [31.31060116447964]
本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
論文 参考訳(メタデータ) (2023-03-07T04:36:35Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - On Primes, Log-Loss Scores and (No) Privacy [8.679020335206753]
本稿では,この追加情報により,任意のデータポイントのメンバシップを1つのクエリで完全精度で推測できることを示す。
我々のアプローチは、攻撃モデルのトレーニングや、敵とのサイド知識へのアクセスを妨げます。
論文 参考訳(メタデータ) (2020-09-17T23:35:12Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。