論文の概要: Bayes' capacity as a measure for reconstruction attacks in federated learning
- arxiv url: http://arxiv.org/abs/2406.13569v1
- Date: Wed, 19 Jun 2024 13:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 19:33:52.199996
- Title: Bayes' capacity as a measure for reconstruction attacks in federated learning
- Title(参考訳): 連邦学習における復興攻撃の指標としてのベイズの能力
- Authors: Sayan Biswas, Mark Dras, Pedro Faustini, Natasha Fernandes, Annabelle McIver, Catuscia Palamidessi, Parastoo Sadeghi,
- Abstract要約: 定量的情報フローの情報理論フレームワークを用いて,再構成脅威モデルを定式化する。
我々は,シブソンの次数無限性の相互情報に関連するベイズの能力が,DP-SGDアルゴリズムの逆数へのリークの密接な上限を表していることを示す。
- 参考スコア(独自算出の注目度): 10.466570297146953
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Within the machine learning community, reconstruction attacks are a principal attack of concern and have been identified even in federated learning, which was designed with privacy preservation in mind. In federated learning, it has been shown that an adversary with knowledge of the machine learning architecture is able to infer the exact value of a training element given an observation of the weight updates performed during stochastic gradient descent. In response to these threats, the privacy community recommends the use of differential privacy in the stochastic gradient descent algorithm, termed DP-SGD. However, DP has not yet been formally established as an effective countermeasure against reconstruction attacks. In this paper, we formalise the reconstruction threat model using the information-theoretic framework of quantitative information flow. We show that the Bayes' capacity, related to the Sibson mutual information of order infinity, represents a tight upper bound on the leakage of the DP-SGD algorithm to an adversary interested in performing a reconstruction attack. We provide empirical results demonstrating the effectiveness of this measure for comparing mechanisms against reconstruction threats.
- Abstract(参考訳): マシンラーニングコミュニティ内では、再構築攻撃が主要な関心事の攻撃であり、プライバシ保護を念頭に設計されたフェデレーション学習においても特定されている。
連合学習では,確率勾配降下時の重み更新の観測から,機械学習アーキテクチャの知識を持つ敵が,学習要素の正確な値を推定できることが示されている。
これらの脅威に応えて、プライバシーコミュニティはDP-SGDと呼ばれる確率勾配降下アルゴリズムにおける差分プライバシーの使用を推奨している。
しかし、復興攻撃に対する効果的な対策として、まだ正式には確立されていない。
本稿では,定量的情報フローの情報理論フレームワークを用いて,再構成脅威モデルを定式化する。
本研究では,シブソンの次数無限性の相互情報に関連するベイズの能力が,DP-SGDアルゴリズムの漏洩を,再構成攻撃の実施に関心のある敵に対して厳密な上限を示すことを示す。
本研究では,再建の脅威に対するメカニズムの比較において,この手法の有効性を示す実験結果を提供する。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Enhancing Privacy of Spatiotemporal Federated Learning against Gradient Inversion Attacks [30.785476975412482]
本稿では,時空間データに適した勾配攻撃アルゴリズムである時空間勾配インバージョンアタック(GIA)を提案する。
我々は、時間的連合学習における勾配反転攻撃を軽減するための適応的な防御戦略を設計する。
提案した防衛戦略は,効果的なセキュリティ保護による時間的フェデレーション学習の有用性を十分に維持できることを明らかにした。
論文 参考訳(メタデータ) (2024-07-11T14:17:02Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Improving Robustness to Model Inversion Attacks via Sparse Coding Architectures [4.962316236417777]
最近のモデル反転攻撃アルゴリズムでは、ニューラルネットワークのプライベートかつ潜在的に敏感なトレーニングデータを繰り返しクエリすることで、敵が再構築することができる。
我々は,このタイプの攻撃に対して優れたロバスト性を得るために,スパースコーディング層を利用する新しいネットワークアーキテクチャを開発した。
論文 参考訳(メタデータ) (2024-03-21T18:26:23Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - Bounding Reconstruction Attack Success of Adversaries Without Data
Priors [53.41619942066895]
機械学習(ML)モデルに対する再構成攻撃は、機密データの漏洩の強いリスクをもたらす。
本研究では,現実的な対角的環境下での再建成功に関する公式な上限を提供する。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Data Reconstruction Attacks and Defenses: A Systematic Evaluation [27.34562026045369]
本稿では,この問題を逆問題とみなし,理論的,定量的にデータ再構成問題を体系的に評価することを提案する。
本報告では, 従来の防衛手法の強みに対する理解を深める上で有効な, 強力な再建攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:06:34Z) - Reconstructing Training Data with Informed Adversaries [30.138217209991826]
機械学習モデルへのアクセスを考えると、敵はモデルのトレーニングデータを再構築できるだろうか?
本研究は、この疑問を、学習データポイントの全てを知っている強力な情報提供者のレンズから研究する。
この厳密な脅威モデルにおいて、残りのデータポイントを再構築することは可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T09:19:25Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Exploring the Security Boundary of Data Reconstruction via Neuron
Exclusivity Analysis [23.07323180340961]
線形整列ユニット(ReLUs)を用いたニューラルネットワーク上の微視的視点による勾配からのデータ再構成のセキュリティ境界について検討する。
ニューラルネットワークの安全性の低い境界にある訓練バッチの再構築において,従来の攻撃よりも大幅に優れる新しい決定論的攻撃アルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-10-26T05:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。