論文の概要: All You Need Is Hashing: Defending Against Data Reconstruction Attack in
Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2212.00325v1
- Date: Thu, 1 Dec 2022 07:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:34:10.366914
- Title: All You Need Is Hashing: Defending Against Data Reconstruction Attack in
Vertical Federated Learning
- Title(参考訳): 必要なのはハッシュだけ - 垂直連合学習におけるデータ再構成攻撃に対する防御
- Authors: Pengyu Qiu, Xuhong Zhang, Shouling Ji, Yuwen Pu, Ting Wang
- Abstract要約: 我々は,データ再構成攻撃の脅威に対処するために,textitHashVFLと呼ばれるハッシュベースのVFLフレームワークを提案する。
ハッシュの一方的な性質により、私たちのフレームワークはハッシュコードからデータを復元するすべての試みをブロックできます。
本稿では,ハッシュを学習性,ビットバランス,一貫性という3つの課題に対処する。
- 参考スコア(独自算出の注目度): 41.13502120303591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning is a trending solution for multi-party
collaboration in training machine learning models. Industrial frameworks adopt
secure multi-party computation methods such as homomorphic encryption to
guarantee data security and privacy. However, a line of work has revealed that
there are still leakage risks in VFL. The leakage is caused by the correlation
between the intermediate representations and the raw data. Due to the powerful
approximation ability of deep neural networks, an adversary can capture the
correlation precisely and reconstruct the data. To deal with the threat of the
data reconstruction attack, we propose a hashing-based VFL framework, called
\textit{HashVFL}, to cut off the reversibility directly. The one-way nature of
hashing allows our framework to block all attempts to recover data from hash
codes. However, integrating hashing also brings some challenges, e.g., the loss
of information. This paper proposes and addresses three challenges to
integrating hashing: learnability, bit balance, and consistency. Experimental
results demonstrate \textit{HashVFL}'s efficiency in keeping the main task's
performance and defending against data reconstruction attacks. Furthermore, we
also analyze its potential value in detecting abnormal inputs. In addition, we
conduct extensive experiments to prove \textit{HashVFL}'s generalization in
various settings. In summary, \textit{HashVFL} provides a new perspective on
protecting multi-party's data security and privacy in VFL. We hope our study
can attract more researchers to expand the application domains of
\textit{HashVFL}.
- Abstract(参考訳): 垂直連合学習は、機械学習モデルのトレーニングにおいて、多人数コラボレーションのためのトレンドソリューションである。
産業フレームワークは、データのセキュリティとプライバシを保証するために、準同型暗号化のようなセキュアなマルチパーティ計算手法を採用する。
しかしながら、一連の研究により、VFLにはまだ漏洩リスクがあることが明らかになった。
リークは、中間表現と生データとの相関によって引き起こされる。
ディープニューラルネットワークの強力な近似能力により、敵は相関を正確に捉えてデータを再構成することができる。
データレコンストラクション攻撃の脅威に対処するため,我々は,ハッシュベースのvflフレームワークである \textit{hashvfl} を提案する。
ハッシュの一方的な性質により、私たちのフレームワークはハッシュコードからデータを復元するすべての試みをブロックできます。
しかし、ハッシュの統合は、例えば情報の損失など、いくつかの課題をもたらす。
本稿では,ハッシュの学習性,ビットバランス,一貫性という3つの課題について論じる。
実験の結果,主タスクの性能維持とデータ復元攻撃に対する防御における \textit{hashvfl} の効率性が示された。
さらに,異常入力の検出においてその潜在値を分析する。
さらに、様々な設定で \textit{HashVFL} の一般化を証明するための広範な実験を行う。
まとめると、 \textit{HashVFL}はVFLにおけるマルチパーティのデータセキュリティとプライバシを保護するための新しい視点を提供する。
我々の研究は、より多くの研究者を惹きつけ、 \textit{HashVFL} の応用領域を拡張することを願っている。
関連論文リスト
- Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - Secure Forward Aggregation for Vertical Federated Neural Networks [25.059312670812215]
我々は、垂直フェデレートラーニング(VFL)におけるよく知られたニューラルネットワークフレームワークであるSplitNNについて研究する。
SplitNNは、生データの代わりに変換データを使ってモデルを共同で訓練するため、モデルパフォーマンスの損失に悩まされる。
セキュリティフォワード・アグリゲーション(SFA)と呼ばれる新しいニューラルネットワークプロトコルをVFLで提案する。
実験の結果,SFAのネットワークはデータセキュリティと高モデル性能の両方を実現していることがわかった。
論文 参考訳(メタデータ) (2022-06-28T03:13:26Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CAFE: Catastrophic Data Leakage in Vertical Federated Learning [65.56360219908142]
近年の研究では、分散機械学習システムにデプロイされた勾配共有機構を通じて、プライベートトレーニングデータがリークされることが示されている。
本稿では,共有集約勾配からバッチデータを効率よく回収する理論的正当性を持つ高度なデータ漏洩攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:22:58Z) - Vertical federated learning based on DFP and BFGS [0.0]
本稿では,dfp と bfgs (bdfl) を用いた新しい垂直フェデレート学習フレームワークを提案する。
実データセットを用いてBDFLフレームワークの効率性をテストする。
論文 参考訳(メタデータ) (2021-01-23T06:15:04Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。