論文の概要: HashVFL: Defending Against Data Reconstruction Attacks in Vertical
Federated Learning
- arxiv url: http://arxiv.org/abs/2212.00325v2
- Date: Mon, 22 Jan 2024 02:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 22:27:55.871866
- Title: HashVFL: Defending Against Data Reconstruction Attacks in Vertical
Federated Learning
- Title(参考訳): hashvfl:垂直連合学習におけるデータ再構成攻撃に対する防御
- Authors: Pengyu Qiu, Xuhong Zhang, Shouling Ji, Chong Fu, Xing Yang, Ting Wang
- Abstract要約: ハッシュを統合し,学習性,ビットバランス,一貫性を同時に実現するHashVFLを提案する。
実験結果から,HashVFLはデータ再構成攻撃を防御しながらタスク性能を効果的に維持することが示された。
- 参考スコア(独自算出の注目度): 44.950977556078776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical Federated Learning (VFL) is a trending collaborative machine
learning model training solution. Existing industrial frameworks employ secure
multi-party computation techniques such as homomorphic encryption to ensure
data security and privacy. Despite these efforts, studies have revealed that
data leakage remains a risk in VFL due to the correlations between intermediate
representations and raw data. Neural networks can accurately capture these
correlations, allowing an adversary to reconstruct the data. This emphasizes
the need for continued research into securing VFL systems.
Our work shows that hashing is a promising solution to counter data
reconstruction attacks. The one-way nature of hashing makes it difficult for an
adversary to recover data from hash codes. However, implementing hashing in VFL
presents new challenges, including vanishing gradients and information loss. To
address these issues, we propose HashVFL, which integrates hashing and
simultaneously achieves learnability, bit balance, and consistency.
Experimental results indicate that HashVFL effectively maintains task
performance while defending against data reconstruction attacks. It also brings
additional benefits in reducing the degree of label leakage, mitigating
adversarial attacks, and detecting abnormal inputs. We hope our work will
inspire further research into the potential applications of HashVFL.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、コラボレーティブな機械学習モデルのトレーニングソリューションである。
既存の産業フレームワークは、データのセキュリティとプライバシを確保するために、準同型暗号化のようなセキュアなマルチパーティ計算技術を使用している。
これらの努力にもかかわらず、中間表現と生データとの相関関係から、データ漏洩はVFLのリスクであることが明らかになっている。
ニューラルネットワークはこれらの相関関係を正確に捉え、敵がデータを再構築することを可能にする。
これは、VFLシステムのセキュリティに関する継続的な研究の必要性を強調している。
我々の研究は、ハッシュがデータ再構築攻撃に対抗するための有望な解決策であることを示している。
ハッシュ化の一方通行性は、敵がハッシュコードからデータを復元するのを難しくする。
しかしながら、VFLにおけるハッシュの実装は、勾配の消失や情報損失など、新たな課題を提示している。
これらの問題に対処するために、ハッシュを統合し、学習性、ビットバランス、一貫性を同時に達成するHashVFLを提案する。
実験の結果,hashvflはデータ再構成攻撃を防御しながらタスク性能を効果的に維持できることがわかった。
また、ラベルリークの程度を減らし、敵攻撃を緩和し、異常な入力を検出することで、さらなるメリットをもたらす。
我々は、HashVFLの潜在的な応用に関するさらなる研究を期待する。
関連論文リスト
- Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - Secure Forward Aggregation for Vertical Federated Neural Networks [25.059312670812215]
我々は、垂直フェデレートラーニング(VFL)におけるよく知られたニューラルネットワークフレームワークであるSplitNNについて研究する。
SplitNNは、生データの代わりに変換データを使ってモデルを共同で訓練するため、モデルパフォーマンスの損失に悩まされる。
セキュリティフォワード・アグリゲーション(SFA)と呼ばれる新しいニューラルネットワークプロトコルをVFLで提案する。
実験の結果,SFAのネットワークはデータセキュリティと高モデル性能の両方を実現していることがわかった。
論文 参考訳(メタデータ) (2022-06-28T03:13:26Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CAFE: Catastrophic Data Leakage in Vertical Federated Learning [65.56360219908142]
近年の研究では、分散機械学習システムにデプロイされた勾配共有機構を通じて、プライベートトレーニングデータがリークされることが示されている。
本稿では,共有集約勾配からバッチデータを効率よく回収する理論的正当性を持つ高度なデータ漏洩攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:22:58Z) - Vertical federated learning based on DFP and BFGS [0.0]
本稿では,dfp と bfgs (bdfl) を用いた新しい垂直フェデレート学習フレームワークを提案する。
実データセットを用いてBDFLフレームワークの効率性をテストする。
論文 参考訳(メタデータ) (2021-01-23T06:15:04Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。