論文の概要: Differentially Private Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2211.06782v1
- Date: Sun, 13 Nov 2022 01:24:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 20:40:07.732588
- Title: Differentially Private Vertical Federated Learning
- Title(参考訳): 微分的にプライベートな垂直フェデレート学習
- Authors: Thilina Ranbaduge and Ming Ding
- Abstract要約: 本稿では,個々の組織データのプライバシーを,差分プライバシー(DP)設定で保護する方法を検討する。
以上の結果から,垂直FL性能とプライバシ保護のバランスをとるためには,トレードオフ点を見つける必要があることが示唆された。
- 参考スコア(独自算出の注目度): 14.690310701654827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A successful machine learning (ML) algorithm often relies on a large amount
of high-quality data to train well-performed models. Supervised learning
approaches, such as deep learning techniques, generate high-quality ML
functions for real-life applications, however with large costs and human
efforts to label training data. Recent advancements in federated learning (FL)
allow multiple data owners or organisations to collaboratively train a machine
learning model without sharing raw data. In this light, vertical FL allows
organisations to build a global model when the participating organisations have
vertically partitioned data. Further, in the vertical FL setting the
participating organisation generally requires fewer resources compared to
sharing data directly, enabling lightweight and scalable distributed training
solutions. However, privacy protection in vertical FL is challenging due to the
communication of intermediate outputs and the gradients of model update. This
invites adversary entities to infer other organisations underlying data. Thus,
in this paper, we aim to explore how to protect the privacy of individual
organisation data in a differential privacy (DP) setting. We run experiments
with different real-world datasets and DP budgets. Our experimental results
show that a trade-off point needs to be found to achieve a balance between the
vertical FL performance and privacy protection in terms of the amount of
perturbation noise.
- Abstract(参考訳): 成功した機械学習(ml)アルゴリズムは、しばしば高品質なモデルを訓練するために大量のデータに依存する。
ディープラーニング技術などの教師付き学習アプローチは、リアルタイムアプリケーションのための高品質なML関数を生成するが、大きなコストとトレーニングデータのラベル付けに人的努力が伴う。
連邦学習(FL)の最近の進歩により、複数のデータ所有者や組織が、生データを共有することなく、機械学習モデルを協調的にトレーニングすることができる。
この点において、垂直FLは、参加する組織が垂直に分割されたデータを持つ場合、組織がグローバルモデルを構築することを可能にする。
さらに、垂直fl設定では、参加組織は通常、データを直接共有するよりもリソースを少なくし、軽量でスケーラブルな分散トレーニングソリューションを実現する。
しかし、中間出力の通信とモデル更新の勾配のため、垂直FLにおけるプライバシー保護は困難である。
これにより、悪意のあるエンティティは、他の組織にデータを推測するように促される。
そこで本稿では,差分プライバシー(dp)設定において,個々の組織データのプライバシを保護する方法について検討する。
さまざまな実世界のデータセットとDP予算で実験を行います。
実験結果から,垂直FL性能とプライバシー保護のバランスをとるためには,摂動騒音の量の観点からトレードオフ点を求める必要があることがわかった。
関連論文リスト
- CDFL: Efficient Federated Human Activity Recognition using Contrastive Learning and Deep Clustering [12.472038137777474]
HAR(Human Activity Recognition)は、多様なセンサーからのデータを介し、人間の行動の自動化とインテリジェントな識別に不可欠である。
中央サーバー上のデータを集約し、集中処理を行うことによる従来の機械学習アプローチは、メモリ集約であり、プライバシの懸念を高める。
本研究は,画像ベースHARのための効率的なフェデレーション学習フレームワークCDFLを提案する。
論文 参考訳(メタデータ) (2024-07-17T03:17:53Z) - Vertical Federated Learning Hybrid Local Pre-training [4.31644387824845]
垂直フェデレート学習(VFL)のための新しいVFLハイブリッド局所事前学習(VFLHLP)手法を提案する。
VFLHLPはまず、参加者のローカルデータに基づいて、ローカルネットワークを事前訓練する。
そして、これらの事前学習ネットワークを使用して、ラベル付きパーティのサブモデルを調整するか、あるいは、アライメントされたデータ上で下流のフェデレーション学習中に、他のパーティの表現学習を強化する。
論文 参考訳(メタデータ) (2024-05-20T08:57:39Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - CoFED: Cross-silo Heterogeneous Federated Multi-task Learning via
Co-training [11.198612582299813]
Federated Learning(FL)は、参加者がプライベートデータを交換することなく、高品質なモデルを協調的にトレーニングできる機械学習技術である。
擬似ラベル付き未ラベルデータに基づく通信効率の高いFLスキームであるCoFEDを提案する。
実験結果から,CoFEDは通信コストの低減を図った。
論文 参考訳(メタデータ) (2022-02-17T11:34:20Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Personalized Semi-Supervised Federated Learning for Human Activity
Recognition [1.9014535120129343]
人間活動認識のための新しいハイブリッド手法であるFedHARを提案する。
FedHARは半教師付きとフェデレーション学習を組み合わせたものです。
我々は、FedHARが最新のFL監督アプローチに類似した認識率とパーソナライゼーション能力に達することを示しています。
論文 参考訳(メタデータ) (2021-04-15T10:24:18Z) - Privacy-Preserving Self-Taught Federated Learning for Heterogeneous Data [6.545317180430584]
フェデレーテッド・ラーニング(FL)は、各パーティのローカルデータを用いて、データを他人に公開することなく、ディープラーニングモデルのジョイントトレーニングを可能にするために提案された。
本研究では,前述の問題に対処するために,自己学習型フェデレーション学習と呼ばれるFL手法を提案する。
この方法では、潜在変数だけがモデルトレーニングのために他の当事者に送信され、プライバシはアクティベーション、重み、バイアスのデータとパラメータをローカルに保存することで保持される。
論文 参考訳(メタデータ) (2021-02-11T08:07:51Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。