論文の概要: Extracting Spatiotemporal Data from Gradients with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.16121v1
- Date: Mon, 21 Oct 2024 15:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:04.885589
- Title: Extracting Spatiotemporal Data from Gradients with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた勾配からの時空間データの抽出
- Authors: Lele Zheng, Yang Cao, Renhe Jiang, Kenjiro Taura, Yulong Shen, Sheng Li, Masatoshi Yoshikawa,
- Abstract要約: グラデーションデータから更新できる最近のアップデートは、フェデレートされた学習における重要なプライバシーの約束を破る。
我々は,連合学習における攻撃を軽減するための適応型防衛戦略を提案する。
提案した防衛戦略は,時間的・時間的連合学習の有用性を効果的に保護し,有効に維持できることを示す。
- 参考スコア(独自算出の注目度): 30.785476975412482
- License:
- Abstract: Recent works show that sensitive user data can be reconstructed from gradient updates, breaking the key privacy promise of federated learning. While success was demonstrated primarily on image data, these methods do not directly transfer to other domains, such as spatiotemporal data. To understand privacy risks in spatiotemporal federated learning, we first propose Spatiotemporal Gradient Inversion Attack (ST-GIA), a gradient attack algorithm tailored to spatiotemporal data that successfully reconstructs the original location from gradients. Furthermore, the absence of priors in attacks on spatiotemporal data has hindered the accurate reconstruction of real client data. To address this limitation, we propose ST-GIA+, which utilizes an auxiliary language model to guide the search for potential locations, thereby successfully reconstructing the original data from gradients. In addition, we design an adaptive defense strategy to mitigate gradient inversion attacks in spatiotemporal federated learning. By dynamically adjusting the perturbation levels, we can offer tailored protection for varying rounds of training data, thereby achieving a better trade-off between privacy and utility than current state-of-the-art methods. Through intensive experimental analysis on three real-world datasets, we reveal that the proposed defense strategy can well preserve the utility of spatiotemporal federated learning with effective security protection.
- Abstract(参考訳): 最近の研究は、センシティブなユーザデータを勾配更新から再構築できることを示し、フェデレートされた学習における重要なプライバシーの約束を破っている。
成功は主に画像データで示されたが、これらの手法は時空間データなど他の領域に直接転送するものではない。
まず、時空間学習におけるプライバシーリスクを理解するために、時空間データに適した勾配攻撃アルゴリズムである時空間逆転攻撃(ST-GIA)を提案する。
さらに、時空間データに対する攻撃における事前の欠如は、実際のクライアントデータの正確な再構築を妨げている。
この制限に対処するために,潜在的位置の探索を補助言語モデルを用いて誘導し,勾配から元のデータを復元するST-GIA+を提案する。
さらに,時空間学習における勾配反転攻撃を軽減するための適応的防御戦略を設計する。
摂動レベルを動的に調整することで、さまざまなトレーニングデータに対して、適切な保護を提供することができます。
実世界の3つのデータセットに対する集中的な実験分析により、提案した防衛戦略が、効果的なセキュリティ保護を備えた時空間フェデレーション学習の有用性を十分に維持できることが明らかとなった。
関連論文リスト
- Enhancing Privacy of Spatiotemporal Federated Learning against Gradient Inversion Attacks [30.785476975412482]
本稿では,時空間データに適した勾配攻撃アルゴリズムである時空間勾配インバージョンアタック(GIA)を提案する。
我々は、時間的連合学習における勾配反転攻撃を軽減するための適応的な防御戦略を設計する。
提案した防衛戦略は,効果的なセキュリティ保護による時間的フェデレーション学習の有用性を十分に維持できることを明らかにした。
論文 参考訳(メタデータ) (2024-07-11T14:17:02Z) - GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Temporal Gradient Inversion Attacks with Robust Optimization [18.166835997248658]
フェデレートラーニング(FL)は、プライベートデータを共有せずに協調的なモデルトレーニングのための有望なアプローチとして登場した。
グラディエント・インバージョン・アタック(GIA)は、交換された勾配からローカルクライアントが保持するプライベートデータを再構築するために提案されている。
プライベートデータを復元する一方で、データ次元とモデルの複雑さが増加し、GAAによるデータの再構築が妨げられる。
複数の時間勾配を利用して、事前の知識なしにプライベートデータを復元するTGIAs-ROを提案する。
論文 参考訳(メタデータ) (2023-06-13T16:21:34Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Exploring the Security Boundary of Data Reconstruction via Neuron
Exclusivity Analysis [23.07323180340961]
線形整列ユニット(ReLUs)を用いたニューラルネットワーク上の微視的視点による勾配からのデータ再構成のセキュリティ境界について検討する。
ニューラルネットワークの安全性の低い境界にある訓練バッチの再構築において,従来の攻撃よりも大幅に優れる新しい決定論的攻撃アルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-10-26T05:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。