論文の概要: Subject Data Auditing via Source Inference Attack in Cross-Silo Federated Learning
- arxiv url: http://arxiv.org/abs/2409.19417v1
- Date: Sat, 28 Sep 2024 17:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 23:29:10.255574
- Title: Subject Data Auditing via Source Inference Attack in Cross-Silo Federated Learning
- Title(参考訳): クロスサイロ・フェデレーションラーニングにおけるソース推論攻撃による主観的データ監査
- Authors: Jiaxin Li, Marco Arazzi, Antonino Nocera, Mauro Conti,
- Abstract要約: フェデレートラーニング(FL)におけるソース推論攻撃(SIA)は、どのクライアントがローカルモデルトレーニングにターゲットデータポイントを使用しているかを特定することを目的としている。
主観的メンバーシップ推論攻撃(SMIA)は、任意のクライアントが対象対象からデータポイントを利用するかどうかをクロスサイロFLで推測しようとする。
本稿では,SAIにおいてターゲットデータポイントを1つのクライアントでのみ使用可能な臨界制約を除去し,SLSIA(Subject-Level Source Inference Attack)を提案する。
- 参考スコア(独自算出の注目度): 23.205866835083455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source Inference Attack (SIA) in Federated Learning (FL) aims to identify which client used a target data point for local model training. It allows the central server to audit clients' data usage. In cross-silo FL, a client (silo) collects data from multiple subjects (e.g., individuals, writers, or devices), posing a risk of subject information leakage. Subject Membership Inference Attack (SMIA) targets this scenario and attempts to infer whether any client utilizes data points from a target subject in cross-silo FL. However, existing results on SMIA are limited and based on strong assumptions on the attack scenario. Therefore, we propose a Subject-Level Source Inference Attack (SLSIA) by removing critical constraints that only one client can use a target data point in SIA and imprecise detection of clients utilizing target subject data in SMIA. The attacker, positioned on the server side, controls a target data source and aims to detect all clients using data points from the target subject. Our strategy leverages a binary attack classifier to predict whether the embeddings returned by a local model on test data from the target subject include unique patterns that indicate a client trains the model with data from that subject. To achieve this, the attacker locally pre-trains models using data derived from the target subject and then leverages them to build a training set for the binary attack classifier. Our SLSIA significantly outperforms previous methods on three datasets. Specifically, SLSIA achieves a maximum average accuracy of 0.88 over 50 target subjects. Analyzing embedding distribution and input feature distance shows that datasets with sparse subjects are more susceptible to our attack. Finally, we propose to defend our SLSIA using item-level and subject-level differential privacy mechanisms.
- Abstract(参考訳): フェデレートラーニング(FL)におけるソース推論攻撃(SIA)は、どのクライアントがローカルモデルトレーニングにターゲットデータポイントを使用しているかを特定することを目的としている。
これにより、中央サーバはクライアントのデータ利用を監査できる。
クロスサイロFLでは、クライアント(サイロ)が複数の被験者(個人、ライター、デバイスなど)からデータを収集し、情報漏洩のリスクを訴える。
対象メンバーシップ推論攻撃(SMIA)はこのシナリオをターゲットとし、どのクライアントも対象の対象からのデータポイントを利用するかどうかをクロスサイロFLで推測しようとする。
しかし、SMIAの既存の結果は限定的であり、攻撃シナリオに対する強い仮定に基づいている。
そこで本研究では,ISAのターゲットデータポイントを1つのクライアントでしか使用できないという致命的な制約を除去し,SMIAのターゲットデータを利用するクライアントを不正確な検出を行うことにより,SLSIA(Subject-Level Source Inference Attack)を提案する。
攻撃者はサーバ側に配置され、ターゲットデータソースを制御し、ターゲット対象からのデータポイントを使用して全クライアントを検出する。
我々の戦略はバイナリアタック分類器を利用して、対象対象からのテストデータにローカルモデルによって返される埋め込みが、その対象からのデータでクライアントがモデルを訓練することを示すユニークなパターンを含むかどうかを予測する。
これを実現するために、攻撃者はターゲット対象から派生したデータを使用してモデルをローカルに事前トレーニングし、それらを利用してバイナリ攻撃分類器のトレーニングセットを構築する。
我々のSLSIAは3つのデータセット上で従来の手法よりも大幅に優れています。
具体的には、SLSIAの最大平均精度は50名以上の対象者に対して0.88である。
埋め込み分布と入力特徴距離を解析すると、スパースな対象を持つデータセットの方が攻撃の影響を受けやすいことが分かる。
最後に、アイテムレベルおよび主観レベルの差分プライバシー機構を用いて、SLSIAを保護することを提案する。
関連論文リスト
- Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FedMIA: An Effective Membership Inference Attack Exploiting "All for One" Principle in Federated Learning [17.141646895576145]
Federated Learning(FL)は、分散データ上で機械学習モデルをトレーニングするための有望なアプローチである。
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがターゲットクライアントのトレーニングセットに属するかどうかを判断することを目的としている。
我々はFedMIAと呼ばれる3段階のメンバーシップ推論攻撃(MIA)手法を導入し、MIAの有効性を高めるため、複数の通信ラウンドにまたがる全クライアントからの更新を平均化する。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Label Inference Attacks against Node-level Vertical Federated GNNs [26.80658307067889]
ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
論文 参考訳(メタデータ) (2023-08-04T17:04:58Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。