論文の概要: Inf2Guard: An Information-Theoretic Framework for Learning
Privacy-Preserving Representations against Inference Attacks
- arxiv url: http://arxiv.org/abs/2403.02116v1
- Date: Mon, 4 Mar 2024 15:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:28:51.660243
- Title: Inf2Guard: An Information-Theoretic Framework for Learning
Privacy-Preserving Representations against Inference Attacks
- Title(参考訳): inf2guard: 推論攻撃に対するプライバシー保護表現を学ぶための情報理論フレームワーク
- Authors: Sayedeh Leila Noorbakhsh, Binghui Zhang, Yuan Hong, Binghui Wang
- Abstract要約: 本稿では,3種類の推論攻撃に対する情報理論的防御フレームワークInf2Guardを提案する。
Inf2Guardには、プライバシ保護とユーティリティ保護の2つの相互情報目的が含まれている。
- 参考スコア(独自算出の注目度): 24.971332760137635
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) is vulnerable to inference (e.g., membership inference,
property inference, and data reconstruction) attacks that aim to infer the
private information of training data or dataset. Existing defenses are only
designed for one specific type of attack and sacrifice significant utility or
are soon broken by adaptive attacks. We address these limitations by proposing
an information-theoretic defense framework, called Inf2Guard, against the three
major types of inference attacks. Our framework, inspired by the success of
representation learning, posits that learning shared representations not only
saves time/costs but also benefits numerous downstream tasks. Generally,
Inf2Guard involves two mutual information objectives, for privacy protection
and utility preservation, respectively. Inf2Guard exhibits many merits: it
facilitates the design of customized objectives against the specific inference
attack; it provides a general defense framework which can treat certain
existing defenses as special cases; and importantly, it aids in deriving
theoretical results, e.g., inherent utility-privacy tradeoff and guaranteed
privacy leakage. Extensive evaluations validate the effectiveness of Inf2Guard
for learning privacy-preserving representations against inference attacks and
demonstrate the superiority over the baselines.
- Abstract(参考訳): 機械学習(ML)は、トレーニングデータやデータセットのプライベート情報を推論することを目的とした推論(例えば、メンバシップ推論、プロパティ推論、データ再構成)に対して脆弱である。
既存の防御は、特定の種類の攻撃のためにのみ設計され、重要なユーティリティを犠牲にするか、適応攻撃によってすぐに破壊される。
我々は,inf2guardと呼ばれる情報理論的防御フレームワークを,主要な3種類の推論攻撃に対して提案することにより,これらの制限に対処する。
私たちのフレームワークは表現学習の成功に触発され、共有表現の学習は時間とコストを節約するだけでなく、多くの下流タスクに役立つと仮定しています。
一般的に、Inf2Guardはプライバシー保護とユーティリティ保護の2つの相互情報目的を含んでいる。
inf2guardは、特定の推論攻撃に対するカスタマイズされた目標の設計を容易にすること、特定の既存の防御を特別なケースとして扱うための一般的な防御フレームワークを提供すること、そして最も重要なことは、固有のユーティリティプライバシートレードオフやプライバシリークの保証など、理論的結果の導出を支援することである。
Inf2Guardは、推論攻撃に対するプライバシー保護表現を学習し、ベースラインよりも優れていることを示す。
関連論文リスト
- Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - One Parameter Defense -- Defending against Data Inference Attacks via
Differential Privacy [26.000487178636927]
機械学習モデルは、メンバシップ推論やモデル反転攻撃のようなデータ推論攻撃に弱い。
既存の防衛方法は、メンバーシップ推論攻撃からのみ保護する。
両攻撃を時間効率で処理する差分プライベートディフェンス法を提案する。
論文 参考訳(メタデータ) (2022-03-13T06:06:24Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - LTU Attacker for Membership Inference [23.266710407178078]
我々は,会員推定攻撃に対する予測モデルを守るという課題に対処する。
ユーティリティとプライバシの両方を、アタッカーと評価器を含む外部装置で評価する。
特定の条件下では、単純な攻撃戦略によって、LTU攻撃者でさえ、プライバシー損失の低い境界を達成できることを証明します。
論文 参考訳(メタデータ) (2022-02-04T18:06:21Z) - Bounding Training Data Reconstruction in Private (Deep) Learning [40.86813581191581]
差分プライバシーは、MLにおけるデータ漏洩を防ぐデファクト手法として広く受け入れられている。
既存のDPのセマンティック保証は、メンバーシップ推論に重点を置いている。
我々は、Renyi差分プライバシーとFisher情報漏洩という2つの異なるプライバシ会計手法が、データ再構成攻撃に対して強力なセマンティック保護を提供することを示した。
論文 参考訳(メタデータ) (2022-01-28T19:24:30Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。