論文の概要: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning
with Active Data Manipulation
- arxiv url: http://arxiv.org/abs/2310.19163v1
- Date: Sun, 29 Oct 2023 21:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 13:59:27.318489
- Title: RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning
with Active Data Manipulation
- Title(参考訳): RAIFLE:アクティブデータ操作による対話型フェデレーション学習における再構成攻撃
- Authors: Dzung Pham, Shreyas Kulkarni, Amir Houmansadr
- Abstract要約: フェデレートラーニング(FL)は、ユーザインタラクションに依存するドメインにおける機械学習のプライバシ保護アプローチとして登場した。
IFLはユーザプライバシに関して,特に中央サーバがユーザと対話するアイテムに関する知識とコントロールを持っている場合に,ユニークな課題を導入することができることを示す。
- 参考スコア(独自算出の注目度): 16.178468864923612
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) has recently emerged as a privacy-preserving approach
for machine learning in domains that rely on user interactions, particularly
recommender systems (RS) and online learning to rank (OLTR). While there has
been substantial research on the privacy of traditional FL, little attention
has been paid to studying the privacy properties of these interaction-based FL
(IFL) systems. In this work, we show that IFL can introduce unique challenges
concerning user privacy, particularly when the central server has knowledge and
control over the items that users interact with. Specifically, we demonstrate
the threat of reconstructing user interactions by presenting RAIFLE, a general
optimization-based reconstruction attack framework customized for IFL. RAIFLE
employs Active Data Manipulation (ADM), a novel attack technique unique to IFL,
where the server actively manipulates the training features of the items to
induce adversarial behaviors in the local FL updates. We show that RAIFLE is
more impactful than existing FL privacy attacks in the IFL context, and
describe how it can undermine privacy defenses like secure aggregation and
private information retrieval. Based on our findings, we propose and discuss
countermeasure guidelines to mitigate our attack in the context of federated
RS/OLTR specifically and IFL more broadly.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、ユーザインタラクションに依存するドメイン、特にレコメンデーションシステム(rs)とオンライン学習のランク付け(oltr)における、プライバシ保護アプローチとして最近登場した。
従来のFLのプライバシに関する重大な研究は行われているが、これらのインタラクションベースのFL(IFL)システムのプライバシ特性の研究にはほとんど関心が払われていない。
本稿では,iflがユーザプライバシに関して,特に中央サーバがユーザと対話する項目に関する知識と制御を持っている場合に,ユニークな課題を提起できることを示す。
具体的には,ifl用にカスタマイズされた最適化ベースのリコンストラクション攻撃フレームワークであるraifleを提示することにより,ユーザインタラクションの再構築の脅威を実証する。
raifleは、ifl特有の新しい攻撃技術であるactive data manipulation(adm)を使用しており、サーバはアイテムのトレーニング機能を積極的に操作し、ローカルfl更新で敵対的な振る舞いを誘発する。
RAIFLEは、IFLコンテキストにおける既存のFLプライバシ攻撃よりも影響が大きいことを示し、セキュアなアグリゲーションやプライベート情報検索といったプライバシ防御を損なうことができるかを説明する。
本研究は, 連合RS/OLTRおよびIFLの文脈において, 攻撃を緩和するための対策ガイドラインを提案し, 議論する。
関連論文リスト
- SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - FLShield: A Validation Based Federated Learning Framework to Defend
Against Poisoning Attacks [1.8925617030516926]
フェデレーテッド・ラーニング(FL)は、自動運転車や医療など、多くの安全上重要な領域で使われている。
本稿では,FL参加者の良性データを用いて局所モデルを検証するFLShieldという新しいFLフレームワークを提案する。
我々はFLShieldフレームワークを様々な環境で評価し、様々な種類の毒やバックドア攻撃を阻止する効果を実証するために広範囲にわたる実験を行った。
論文 参考訳(メタデータ) (2023-08-10T19:29:44Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - Mutual Information Regularization for Vertical Federated Learning [6.458078197870505]
Vertical Federated Learning (VFL)は、データプライバシと安全性を保護しながら協調学習を可能にするために、現実世界のアプリケーションで広く利用されている。
以前の研究によると、VFLのラベル(パッシブパーティ)を持たない当事者は、その当事者が所有する機密ラベル情報をラベル(アクティブパーティ)で推測したり、VFLに対するバックドアアタックを実行することができる。
本稿では,特徴とラベル,中間出力を含むプライベート生データ間の相互情報を制限し,モデルユーティリティとプライバシのトレードオフを改善するための汎用防衛手法を提案する。
論文 参考訳(メタデータ) (2023-01-01T02:03:34Z) - A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning [14.916718841834953]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
その変種の一つである垂直連合学習(VFL)は、より価値ある機能を活用するという企業の要求と一致するため、最近注目を集めている。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
論文 参考訳(メタデータ) (2022-09-08T15:41:31Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient
Communication with ADMM [66.36040015657339]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。