論文の概要: Game of Privacy: Towards Better Federated Platform Collaboration under
Privacy Restriction
- arxiv url: http://arxiv.org/abs/2202.05139v1
- Date: Thu, 10 Feb 2022 16:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 19:16:29.370126
- Title: Game of Privacy: Towards Better Federated Platform Collaboration under
Privacy Restriction
- Title(参考訳): game of privacy: プライバシー制限下での連合プラットフォームコラボレーションを改善する
- Authors: Chuhan Wu, Fangzhao Wu, Tao Qi, Yanlin Wang, Yongfeng Huang, Xing Xie
- Abstract要約: Vertical Federated Learning (VFL)は、異なるプラットフォームに格納された異なる機能空間を持つクロスサイロデータからモデルをトレーニングすることを目的としている。
フェデレーション学習の固有のプライバシーリスクのため、関連するデータの総量は制限される可能性がある。
我々は、VFLフレームワークのマルチプラットフォーム情報を活用して、各プラットフォームが自身のタスクに役立てることができるような、相互協力を通じて、異なるプラットフォームをインセンティブにすることを提案する。
- 参考スコア(独自算出の注目度): 95.12382372267724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical federated learning (VFL) aims to train models from cross-silo data
with different feature spaces stored on different platforms. Existing VFL
methods usually assume all data on each platform can be used for model
training. However, due to the intrinsic privacy risks of federated learning,
the total amount of involved data may be constrained. In addition, existing VFL
studies usually assume only one platform has task labels and can benefit from
the collaboration, making it difficult to attract other platforms to join in
the collaborative learning. In this paper, we study the platform collaboration
problem in VFL under privacy constraint. We propose to incent different
platforms through a reciprocal collaboration, where all platforms can exploit
multi-platform information in the VFL framework to benefit their own tasks.
With limited privacy budgets, each platform needs to wisely allocate its data
quotas for collaboration with other platforms. Thereby, they naturally form a
multi-party game. There are two core problems in this game, i.e., how to
appraise other platforms' data value to compute game rewards and how to
optimize policies to solve the game. To evaluate the contributions of other
platforms' data, each platform offers a small amount of "deposit" data to
participate in the VFL. We propose a performance estimation method to predict
the expected model performance when involving different amount combinations of
inter-platform data. To solve the game, we propose a platform negotiation
method that simulates the bargaining among platforms and locally optimizes
their policies via gradient descent. Extensive experiments on two real-world
datasets show that our approach can effectively facilitate the collaborative
exploitation of multi-platform data in VFL under privacy restrictions.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、異なるプラットフォームに格納された異なる機能空間を持つクロスサイロデータからモデルをトレーニングすることを目的としている。
既存のVFLメソッドは通常、各プラットフォーム上のすべてのデータをモデルトレーニングに使用できると仮定する。
しかし、フェデレーション学習の固有のプライバシーリスクのため、関連するデータの総量は制限される可能性がある。
加えて、既存のVFL研究は通常、ひとつのプラットフォームにタスクラベルがあると仮定し、コラボレーションの恩恵を受けることができるため、他のプラットフォームが協調学習に参加することは困難である。
本稿では,プライバシー制約下でのVFLにおけるプラットフォーム協調問題について検討する。
我々は,VFLフレームワークのマルチプラットフォーム情報を活用して,各プラットフォームを相互に連携させることによって,異なるプラットフォームをインセンティブにすることを提案する。
プライバシーの予算が限られているため、各プラットフォームは他のプラットフォームとのコラボレーションのためにデータクォータを適切に割り当てる必要がある。
これにより、自然界の多人数ゲームとなる。
このゲームには、ゲーム報酬を計算するために他のプラットフォームのデータ価値を評価する方法と、ゲームを解決するためのポリシーを最適化する方法の2つの問題がある。
他のプラットフォームのデータの貢献を評価するために、各プラットフォームは、vflに参加するために少量の"デポジット"データを提供する。
プラットフォーム間データの量の組み合わせが異なる場合に,予測モデルの性能を予測する性能推定法を提案する。
そこで本研究では,プラットフォーム間の交渉をシミュレートし,勾配降下による政策を局所的に最適化するプラットフォームネゴシエーション手法を提案する。
2つの実世界のデータセットに関する広範囲な実験は、プライバシ制限下でのvflにおけるマルチプラットフォームデータの協調的利用を効果的に促進できることを示した。
関連論文リスト
- FedUD: Exploiting Unaligned Data for Cross-Platform Federated Click-Through Rate Prediction [3.221675775415278]
クリックスルー率(CTR)予測は、オンライン広告プラットフォームにおいて重要な役割を果たす。
プライバシー上の懸念から、異なるプラットフォームからのデータは、集中型モデルトレーニングのためにサーバにアップロードすることはできない。
我々は、より正確なCTR予測のために、整合性のないデータに加えて、整合性のないデータを利用することができるFedUDを提案する。
論文 参考訳(メタデータ) (2024-07-26T02:48:32Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Quadratic Functional Encryption for Secure Training in Vertical
Federated Learning [26.188083606166806]
Vertical Federated Learning(VFL)は、複数のパーティに分散した設定において、機械学習(ML)モデルの協調トレーニングを可能にする。
VFLでは、ラベルは単一のパーティで利用可能であり、すべてのパーティのデータが結合された場合にのみ、完全なフィーチャーセットが形成される。
近年、Xuらはマルチインプット関数暗号を用いたVFLのためのセキュア勾配計算のためのFedVと呼ばれる新しいフレームワークを提案した。
論文 参考訳(メタデータ) (2023-05-15T05:31:35Z) - Vertical Federated Learning: A Structured Literature Review [0.0]
フェデレートラーニング(FL)は、データプライバシのメリットを付加した、有望な分散ラーニングパラダイムとして登場した。
本稿では,VFLにおける最先端のアプローチを論じる構造化文献レビューを行う。
論文 参考訳(メタデータ) (2022-12-01T16:16:41Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z) - Hybrid Differentially Private Federated Learning on Vertically
Partitioned Data [41.7896466307821]
垂直統合学習(VFL)のためのDPフレームワークであるHDP-VFLについて述べる。
我々は、VFLの中間結果(IR)が、コミュニケーション中にトレーニングデータのプライベート情報を漏洩させる方法について分析する。
数学的には、我々のアルゴリズムはVFLのユーティリティ保証を提供するだけでなく、マルチレベルプライバシも提供することを証明している。
論文 参考訳(メタデータ) (2020-09-06T16:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。