論文の概要: Exploiting Record Similarity for Practical Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2106.06312v1
- Date: Fri, 11 Jun 2021 11:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:03:46.100776
- Title: Exploiting Record Similarity for Practical Vertical Federated Learning
- Title(参考訳): 実践的垂直的フェデレーション学習における記録的類似性
- Authors: Zhaomin Wu, Qinbin Li, Bingsheng He
- Abstract要約: 我々は、より現実的なアプリケーションに適した新しい類似性ベースのVFLフレームワークであるFedSimを設計し、従来のVFLタスクで高いパフォーマンスを実現する。
3つの合成データセットと5つの実世界のデータセットに関する実験から、FedSimは他の最先端のベースラインを一貫して上回っていることが分かる。
- 参考スコア(独自算出の注目度): 36.45828650230148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the privacy of machine learning has drawn increasing attention, federated
learning is introduced to enable collaborative learning without revealing raw
data. Notably, \textit{vertical federated learning} (VFL), where parties share
the same set of samples but only hold partial features, has a wide range of
real-world applications. However, existing studies in VFL rarely study the
``record linkage'' process. They either design algorithms assuming the data
from different parties have been linked or use simple linkage methods like
exact-linkage or top1-linkage. These approaches are unsuitable for many
applications, such as the GPS location and noisy titles requiring fuzzy
matching. In this paper, we design a novel similarity-based VFL framework,
FedSim, which is suitable for more real-world applications and achieves higher
performance on traditional VFL tasks. Moreover, we theoretically analyze the
privacy risk caused by sharing similarities. Our experiments on three synthetic
datasets and five real-world datasets with various similarity metrics show that
FedSim consistently outperforms other state-of-the-art baselines.
- Abstract(参考訳): 機械学習のプライバシへの関心が高まる中、生データを明かすことなく協調学習を可能にするために連合学習が導入された。
特に、パーティが同じサンプルセットを共有するが、部分的な機能しか持たない \textit{vertical federated learning} (vfl) には、幅広い現実世界のアプリケーションがある。
しかしながら、VFL の既存の研究は 'record linkage' プロセスの研究はめったにない。
彼らは、異なるパーティのデータがリンクされていると仮定するアルゴリズムを設計するか、正確なリンクやトップ1リンクのような単純なリンク手法を使用する。
これらのアプローチは、GPSロケーションやファジィマッチングを必要とするノイズの多いタイトルなど、多くのアプリケーションには適さない。
本稿では,より現実世界のアプリケーションに適した新しい類似性に基づくvflフレームワークfeedsimを設計し,従来のvflタスクで高いパフォーマンスを実現する。
さらに,類似性を共有することによって生じるプライバシーリスクを理論的に分析する。
3つの合成データセットと様々な類似度メトリクスを持つ5つの実世界のデータセットに関する実験は、feedsimが常に最先端のベースラインを上回ることを示している。
関連論文リスト
- Stalactite: Toolbox for Fast Prototyping of Vertical Federated Learning Systems [37.11550251825938]
本稿では,VFL(Vertical Federated Learning)システムのためのオープンソースのフレームワークであるemphStalactiteを紹介する。
VFLはデータサンプルが複数のデータ所有者にまたがる機能によって分割されるFLの一種である。
実世界のレコメンデーションデータセットでその使い方を実証する。
論文 参考訳(メタデータ) (2024-09-23T21:29:03Z) - A Universal Metric of Dataset Similarity for Cross-silo Federated Learning [0.0]
フェデレートラーニングは、データ共有なしにモデルトレーニングを容易にするために、医療などの分野でますます使われている。
本稿では,データセットの類似性を評価するための新しい指標を提案する。
本稿では,我々の測定値がモデル性能と堅牢かつ解釈可能な関係を示し,プライバシ保護方式で計算可能であることを示す。
論文 参考訳(メタデータ) (2024-04-29T15:08:24Z) - Effective and Efficient Federated Tree Learning on Hybrid Data [80.31870543351918]
本稿では,ハイブリッドデータ上でのフェデレーションツリー学習を可能にする,新しいフェデレーション学習手法であるHybridTreeを提案する。
木に一貫した分割ルールが存在することを観察し、木の下層にパーティの知識を組み込むことができることを示す。
実験により,HybridTreeは計算および通信のオーバーヘッドが低い集中的な設定に匹敵する精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-10-18T10:28:29Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - DVFL: A Vertical Federated Learning Method for Dynamic Data [2.406222636382325]
本稿では,共同作業を行う組織が,同じユーザ集合を共有できるが,機能に相容れないシナリオに対処する,垂直連合学習(VFL)について検討する。
本稿では,知識蒸留による動的データ分布変化に適応する,新しい縦型フェデレーション学習手法DVFLを提案する。
DVFLは静的シーンにおける既存のVFL手法に近い結果を得るだけでなく,動的シナリオにおけるデータ分布の変化にも適応できることを示す。
論文 参考訳(メタデータ) (2021-11-05T09:26:09Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view Training [9.638604434238882]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。