論文の概要: FedVS: Straggler-Resilient and Privacy-Preserving Vertical Federated
Learning for Split Models
- arxiv url: http://arxiv.org/abs/2304.13407v3
- Date: Thu, 6 Jul 2023 07:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 17:41:13.236085
- Title: FedVS: Straggler-Resilient and Privacy-Preserving Vertical Federated
Learning for Split Models
- Title(参考訳): FedVS: 分割モデルのためのストラグラー耐性とプライバシ保護による垂直的フェデレーション学習
- Authors: Songze Li, Duanyi Yao, Jin Liu
- Abstract要約: 本論文は,VFL分割における2つの大きな課題に対処することを目的としている。1) トレーニング中のクライアントの混在によるパフォーマンス劣化,2) クライアントがアップロードしたデータ埋め込みからのデータおよびモデルプライバシリーク。
我々はこれらの2つの課題に同時に対処するためにFedVSを提案する。
- 参考スコア(独自算出の注目度): 6.512728708540408
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In a vertical federated learning (VFL) system consisting of a central server
and many distributed clients, the training data are vertically partitioned such
that different features are privately stored on different clients. The problem
of split VFL is to train a model split between the server and the clients. This
paper aims to address two major challenges in split VFL: 1) performance
degradation due to straggling clients during training; and 2) data and model
privacy leakage from clients' uploaded data embeddings. We propose FedVS to
simultaneously address these two challenges. The key idea of FedVS is to design
secret sharing schemes for the local data and models, such that
information-theoretical privacy against colluding clients and curious server is
guaranteed, and the aggregation of all clients' embeddings is reconstructed
losslessly, via decrypting computation shares from the non-straggling clients.
Extensive experiments on various types of VFL datasets (including tabular, CV,
and multi-view) demonstrate the universal advantages of FedVS in straggler
mitigation and privacy protection over baseline protocols.
- Abstract(参考訳): 中央サーバと多くの分散クライアントからなる垂直連合学習(VFL)システムにおいて、トレーニングデータを垂直に分割し、異なる特徴を異なるクライアントにプライベートに格納する。
分割VFLの問題は、サーバとクライアントの間で分割されたモデルをトレーニングすることだ。
本稿では,分割VFLにおける2つの課題に対処することを目的とする。
1) 研修中にクライアントを絞ったことによる性能の低下
2) クライアントがアップロードしたデータ埋め込みからのデータとモデルのプライバシリーク。
我々はこれらの2つの課題に同時に対処するためにFedVSを提案する。
fedvsの鍵となるアイデアは、ローカルデータやモデルのシークレット共有スキームをデザインすることであり、クライアントと好奇心に満ちたサーバに対する情報理論的なプライバシーが保証され、全てのクライアントの埋め込みの集約は、非ストラグリングクライアントから計算共有を復号することで損失なく再構築される。
様々な種類のVFLデータセット(表、CV、マルチビューを含む)に対する大規模な実験は、ベースラインプロトコルに対するトラグラー緩和とプライバシ保護におけるFedVSの普遍的な利点を示している。
関連論文リスト
- Decoupled Vertical Federated Learning for Practical Training on
Vertically Partitioned Data [9.84489449520821]
本稿では,垂直的フェデレート学習(VFL)に対するブロックワイズ学習手法を提案する。
VFLでは、ホストクライアントがエンティティごとにデータラベルを所有し、すべてのゲストクライアントから中間的なローカル表現に基づいて最終表現を学習する。
分割ニューラルネットワークをトレーニングするためにDVFLを実装し、様々な分類データセット上でモデル性能がVFLに匹敵することを示す。
論文 参考訳(メタデータ) (2024-03-06T17:23:28Z) - Secure Vertical Federated Learning Under Unreliable Connectivity [22.03946356498099]
我々は、最初のドロップアウト耐性VFLプロトコルであるvFedSecを紹介する。
埋め込み-パディング技術とともに革新的なSecure Layerを使用することで、セキュアで効率的なモデルトレーニングを実現する。
論文 参考訳(メタデータ) (2023-05-26T10:17:36Z) - Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification [54.72892987840267]
FedBasisは、いくつかの共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルの重みではなく、小さな組み合わせ係数のみを学ぶ必要がある。
また、FedBasisの有効性と適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提案する。
論文 参考訳(メタデータ) (2023-04-16T20:19:18Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DReS-FL: Dropout-Resilient Secure Federated Learning for Non-IID Clients
via Secret Data Sharing [7.573516684862637]
フェデレートラーニング(FL)は、クライアントのプライベートデータを集中的に収集することなく、機械学習モデルの協調トレーニングを可能にする。
本稿では,ラグランジュコンピューティングに基づくDropout-Resilient Secure Federated Learningフレームワークを提案する。
DReS-FLはクライアントのドロップアウトに対して耐性があり、ローカルデータセットのプライバシ保護を提供する。
論文 参考訳(メタデータ) (2022-10-06T05:04:38Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。