論文の概要: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning
with Active Data Manipulation
- arxiv url: http://arxiv.org/abs/2310.19163v1
- Date: Sun, 29 Oct 2023 21:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 13:59:27.318489
- Title: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning
with Active Data Manipulation
- Title(参考訳): RAIFLE:アクティブデータ操作による対話型フェデレーション学習における再構成攻撃
- Authors: Dzung Pham, Shreyas Kulkarni, Amir Houmansadr
- Abstract要約: フェデレートラーニング(FL)は、ユーザインタラクションに依存するドメインにおける機械学習のプライバシ保護アプローチとして登場した。
IFLはユーザプライバシに関して,特に中央サーバがユーザと対話するアイテムに関する知識とコントロールを持っている場合に,ユニークな課題を導入することができることを示す。
- 参考スコア(独自算出の注目度): 16.178468864923612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) has recently emerged as a privacy-preserving approach
for machine learning in domains that rely on user interactions, particularly
recommender systems (RS) and online learning to rank (OLTR). While there has
been substantial research on the privacy of traditional FL, little attention
has been paid to studying the privacy properties of these interaction-based FL
(IFL) systems. In this work, we show that IFL can introduce unique challenges
concerning user privacy, particularly when the central server has knowledge and
control over the items that users interact with. Specifically, we demonstrate
the threat of reconstructing user interactions by presenting RAIFLE, a general
optimization-based reconstruction attack framework customized for IFL. RAIFLE
employs Active Data Manipulation (ADM), a novel attack technique unique to IFL,
where the server actively manipulates the training features of the items to
induce adversarial behaviors in the local FL updates. We show that RAIFLE is
more impactful than existing FL privacy attacks in the IFL context, and
describe how it can undermine privacy defenses like secure aggregation and
private information retrieval. Based on our findings, we propose and discuss
countermeasure guidelines to mitigate our attack in the context of federated
RS/OLTR specifically and IFL more broadly.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、ユーザインタラクションに依存するドメイン、特にレコメンデーションシステム(rs)とオンライン学習のランク付け(oltr)における、プライバシ保護アプローチとして最近登場した。
従来のFLのプライバシに関する重大な研究は行われているが、これらのインタラクションベースのFL(IFL)システムのプライバシ特性の研究にはほとんど関心が払われていない。
本稿では,iflがユーザプライバシに関して,特に中央サーバがユーザと対話する項目に関する知識と制御を持っている場合に,ユニークな課題を提起できることを示す。
具体的には,ifl用にカスタマイズされた最適化ベースのリコンストラクション攻撃フレームワークであるraifleを提示することにより,ユーザインタラクションの再構築の脅威を実証する。
raifleは、ifl特有の新しい攻撃技術であるactive data manipulation(adm)を使用しており、サーバはアイテムのトレーニング機能を積極的に操作し、ローカルfl更新で敵対的な振る舞いを誘発する。
RAIFLEは、IFLコンテキストにおける既存のFLプライバシ攻撃よりも影響が大きいことを示し、セキュアなアグリゲーションやプライベート情報検索といったプライバシ防御を損なうことができるかを説明する。
本研究は, 連合RS/OLTRおよびIFLの文脈において, 攻撃を緩和するための対策ガイドラインを提案し, 議論する。
関連論文リスト
- Masked Autoencoders are Parameter-Efficient Federated Continual Learners [6.184711584674839]
pMAEは、画像再構成によりクライアント側の再構成プロンプトを学習する。
アップロードされた復元情報を再構築して、以前のタスクと異なるクライアント間でのデータ分散をキャプチャする。
論文 参考訳(メタデータ) (2024-11-04T09:28:18Z) - A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization [22.61730495802799]
本稿では,学習過程を通じて個々のモデル更新を効率よく保護するシステム設計を提案する。
本システムは,実用性能で,ベースラインに匹敵する精度を実現している。
論文 参考訳(メタデータ) (2022-02-04T05:03:46Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - How to Put Users in Control of their Data in Federated Top-N
Recommendation with Learning to Rank [16.256897977543982]
FPLは、ユーザがデバイスを離れる機密データの量を制御しながら、中央分解モデルのトレーニングに協力するアーキテクチャである。
提案手法は,フェデレートラーニングの原則に従うことで,ペアワイズ学習とランク最適化を実現する。
論文 参考訳(メタデータ) (2020-08-17T10:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。