論文の概要: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning with Adversarial Data Manipulation
- arxiv url: http://arxiv.org/abs/2310.19163v2
- Date: Thu, 11 Jul 2024 16:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 23:47:33.442381
- Title: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning with Adversarial Data Manipulation
- Title(参考訳): RAIFLE: 対話型フェデレーション学習における逆データ操作による再構成攻撃
- Authors: Dzung Pham, Shreyas Kulkarni, Amir Houmansadr,
- Abstract要約: 利用者は、中央サーバでプライベートなインタラクションを再構築するリスクが高くなる。
我々は、新しい最適化ベースの攻撃フレームワークであるRAIFLEを紹介する。
本実験は, RAIFLEが既存の再建攻撃よりもはるかに強力であることを示すものである。
- 参考スコア(独自算出の注目度): 14.394939014120451
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning has emerged as a promising privacy-preserving solution for machine learning domains that rely on user interactions, particularly recommender systems and online learning to rank. While there has been substantial research on the privacy of traditional federated learning, little attention has been paid to the privacy properties of these interaction-based settings. In this work, we show that users face an elevated risk of having their private interactions reconstructed by the central server when the server can control the training features of the items that users interact with. We introduce RAIFLE, a novel optimization-based attack framework where the server actively manipulates the features of the items presented to users to increase the success rate of reconstruction. Our experiments with federated recommendation and online learning-to-rank scenarios demonstrate that RAIFLE is significantly more powerful than existing reconstruction attacks like gradient inversion, achieving high performance consistently in most settings. We discuss the pros and cons of several possible countermeasures to defend against RAIFLE in the context of interaction-based federated learning. Our code is open-sourced at https://github.com/dzungvpham/raifle.
- Abstract(参考訳): フェデレーテッド・ラーニング(Federated Learning)は、ユーザーインタラクション、特に推奨システムやランク付けのためのオンライン学習に依存する機械学習ドメインのための、有望なプライバシ保護ソリューションとして登場した。
従来のフェデレーション学習のプライバシに関する大規模な研究は行われているが、これらのインタラクションベースの設定のプライバシ特性にはほとんど関心が払われていない。
本研究では,ユーザが対話するアイテムのトレーニング機能をサーバが制御できる場合には,中央サーバがプライベートなインタラクションを再構築するリスクが高くなることを示す。
RAIFLEは、サーバがユーザに提示したアイテムの特徴を積極的に操作し、再構築の成功率を高めるための、新しい最適化ベースの攻撃フレームワークである。
本実験は, RAIFLE が, 勾配逆転などの既存再建攻撃よりもはるかに強力であり, 高い性能を達成できることを示すものである。
本稿では,対話型フェデレーション学習の文脈におけるRAIFLE対策の可能性と問題点について論じる。
私たちのコードはhttps://github.com/dzungvpham/raifle.comでオープンソース化されています。
関連論文リスト
- A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization [22.61730495802799]
本稿では,学習過程を通じて個々のモデル更新を効率よく保護するシステム設計を提案する。
本システムは,実用性能で,ベースラインに匹敵する精度を実現している。
論文 参考訳(メタデータ) (2022-02-04T05:03:46Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix [12.678765681171022]
連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
論文 参考訳(メタデータ) (2021-06-10T23:55:28Z) - How to Put Users in Control of their Data in Federated Top-N
Recommendation with Learning to Rank [16.256897977543982]
FPLは、ユーザがデバイスを離れる機密データの量を制御しながら、中央分解モデルのトレーニングに協力するアーキテクチャである。
提案手法は,フェデレートラーニングの原則に従うことで,ペアワイズ学習とランク最適化を実現する。
論文 参考訳(メタデータ) (2020-08-17T10:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。