論文の概要: BlindSage: Label Inference Attacks against Node-level Vertical Federated
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2308.02465v1
- Date: Fri, 4 Aug 2023 17:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:04:05.342312
- Title: BlindSage: Label Inference Attacks against Node-level Vertical Federated
Graph Neural Networks
- Title(参考訳): BlindSage: ノードレベルの垂直グラフニューラルネットワークに対するラベル推論攻撃
- Authors: Marco Arazzi, Mauro Conti, Stefanos Koffas, Marina Krcek, Antonino
Nocera, Stjepan Picek and Jing Xu
- Abstract要約: ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
- 参考スコア(独自算出の注目度): 20.496587145912297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables collaborative training of machine learning models
by keeping the raw data of the involved workers private. One of its main
objectives is to improve the models' privacy, security, and scalability.
Vertical Federated Learning (VFL) offers an efficient cross-silo setting where
a few parties collaboratively train a model without sharing the same features.
In such a scenario, classification labels are commonly considered sensitive
information held exclusively by one (active) party, while other (passive)
parties use only their local information. Recent works have uncovered important
flaws of VFL, leading to possible label inference attacks under the assumption
that the attacker has some, even limited, background knowledge on the relation
between labels and data. In this work, we are the first (to the best of our
knowledge) to investigate label inference attacks on VFL using a
zero-background knowledge strategy. To concretely formulate our proposal, we
focus on Graph Neural Networks (GNNs) as a target model for the underlying VFL.
In particular, we refer to node classification tasks, which are widely studied,
and GNNs have shown promising results. Our proposed attack, BlindSage, provides
impressive results in the experiments, achieving nearly 100% accuracy in most
cases. Even when the attacker has no information about the used architecture or
the number of classes, the accuracy remained above 85% in most instances.
Finally, we observe that well-known defenses cannot mitigate our attack without
affecting the model's performance on the main classification task.
- Abstract(参考訳): 連合学習は、関係者の生データをプライベートに保つことによって、機械学習モデルの協調的なトレーニングを可能にする。
その主な目的の1つは、モデルのプライバシ、セキュリティ、スケーラビリティを改善することである。
Vertical Federated Learning(VFL)は、いくつかのパーティが同じ機能を共有せずに協力的にモデルをトレーニングする、効率的なクロスサイロ設定を提供する。
このようなシナリオでは、分類ラベルは一般的に、1つの(アクティブ)パーティのみに保持される機密情報とみなされ、他の(パッシブ)パーティはローカル情報のみを使用する。
最近の研究でvflの重要な欠陥が明らかになったため、攻撃者がラベルとデータの関係に関する背景知識を持っているという仮定の下で、ラベル推論攻撃が考えられるようになった。
本研究は,ゼロ背景知識戦略を用いて,VFLに対するラベル推論攻撃を調査した最初の(私たちの知る限り)ものである。
本提案を具体化するために、基礎となるVFLのターゲットモデルとしてグラフニューラルネットワーク(GNN)に焦点を当てる。
特に、広く研究されているノード分類タスクについて言及し、GNNは有望な結果を示している。
提案する攻撃であるブラインドセージは,実験において印象的な結果をもたらし,ほとんどの場合,ほぼ100%の精度を達成している。
攻撃者が使用済みのアーキテクチャやクラス数に関する情報を持っていない場合でも、ほとんどのインスタンスで精度は85%以上だった。
最後に,主要な分類課題におけるモデルの性能に影響を与えることなく,よく知られた防御が攻撃を軽減できないことを観察する。
関連論文リスト
- Decoupling the Class Label and the Target Concept in Machine Unlearning [81.69857244976123]
機械学習の目的は、トレーニングデータの一部を除外した再トレーニングされたモデルを近似するために、トレーニングされたモデルを調整することだ。
過去の研究では、クラスワイド・アンラーニングが対象クラスの知識を忘れることに成功していることが示された。
我々は、TARget-aware Forgetting (TARF) という一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T14:53:30Z) - KDk: A Defense Mechanism Against Label Inference Attacks in Vertical Federated Learning [2.765106384328772]
Vertical Federated Learning (VFL) のシナリオでは、サンプルのラベルは、ラベル所有者である集約サーバを除くすべてのパーティからプライベートに保持される。
最近の研究で、サーバからボトムモデルに返される勾配情報を利用することで、敵がプライベートラベルを推測できることが判明した。
我々は,KDkという,知識蒸留とk匿名を組み合わせて防御機構を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:51:02Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。