論文の概要: Contrastive Federated Learning with Tabular Data Silos
- arxiv url: http://arxiv.org/abs/2409.06123v2
- Date: Fri, 14 Feb 2025 13:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:45:20.907665
- Title: Contrastive Federated Learning with Tabular Data Silos
- Title(参考訳): タブラルデータサイロを用いた対照的フェデレーション学習
- Authors: Achmad Ginanjar, Xue Li, Wen Hua, Jiaming Pei,
- Abstract要約: 本稿では,垂直分割データサイロから学習するためのソリューションとして,タブラルデータサイロを用いたコントラシブ・フェデレート・ラーニング(CFL)を提案する。
CFLは、プライバシを維持するためにオリジナルのデータや代表データの共有を必要とせずに、サンプルのミスアライメントを伴うデータサイロのソリューションを提供する。
- 参考スコア(独自算出の注目度): 14.430230014234189
- License:
- Abstract: Learning from vertical partitioned data silos is challenging due to the segmented nature of data, sample misalignment, and strict privacy concerns. Federated learning has been proposed as a solution. However, sample misalignment across silos often hinders optimal model performance and suggests data sharing within the model, which breaks privacy. Our proposed solution is Contrastive Federated Learning with Tabular Data Silos (CFL), which offers a solution for data silos with sample misalignment without the need for sharing original or representative data to maintain privacy. CFL begins with local acquisition of contrastive representations of the data within each silo and aggregates knowledge from other silos through the federated learning algorithm. Our experiments demonstrate that CFL solves the limitations of existing algorithms for data silos and outperforms existing tabular contrastive learning. CFL provides performance improvements without loosening privacy.
- Abstract(参考訳): 垂直分割データサイロから学ぶことは、データのセグメンテーションの性質、サンプルのミスアライメント、厳格なプライバシー上の懸念のために難しい。
フェデレートラーニングはソリューションとして提案されている。
しかし、サイロにまたがるサンプルのミスアライメントは、しばしば最適なモデルパフォーマンスを阻害し、モデル内のデータ共有を推奨し、プライバシを損なう。
提案したソリューションはContrastive Federated Learning with Tabular Data Silos (CFL) であり、プライバシを維持するためにオリジナルデータや代表データを共有することなく、サンプルのミスアライメントでデータサイロのソリューションを提供する。
CFLは、各サイロ内のデータのコントラスト表現の局所的取得から始まり、フェデレートされた学習アルゴリズムを通じて、他のサイロからの知識を集約する。
実験により、CFLは既存のデータサイロのアルゴリズムの限界を解消し、既存の表型コントラスト学習より優れていることを示した。
CFLは、プライバシを緩めることなくパフォーマンスを改善する。
関連論文リスト
- Rehearsal-Free Continual Federated Learning with Synergistic Regularization [14.258111055761479]
連続的フェデレートラーニング(Continuous Federated Learning, CFL)は、分散デバイスがトレーニングデータを継続的にシフトすることで、新しい概念を協調的に学習することを可能にする。
我々は、CFLのシナプスインテリジェンスを不均一なデータ設定で調整するFedSSIという、単純かつ効果的なCFLの正規化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-18T12:16:41Z) - A Stochastic Optimization Framework for Private and Fair Learning From Decentralized Data [14.748203847227542]
プライベート・フェア・フェデレーション・ラーニング(FL)のための新しいアルゴリズムを開発した。
我々のアルゴリズムは、サイロ間レコードレベル差分プライバシー(ISRL-DP)を満たす。
実験では、さまざまなプライバシレベルにわたるアルゴリズムのトレードオフとして、最先端の公正性・正確性フレームワークが実証されている。
論文 参考訳(メタデータ) (2024-11-12T15:51:35Z) - Entropy Law: The Story Behind Data Compression and LLM Performance [115.70395740286422]
モデル性能はトレーニングデータの圧縮比と負の相関関係にあり,トレーニング損失が小さくなるのが普通である。
エントロピー法則の知見に基づいて, 極めて効率的で普遍的なデータ選択法を提案する。
また,モデルトレーニング開始時の潜在的な性能リスクを検出するエントロピー法則の興味深い応用を提案する。
論文 参考訳(メタデータ) (2024-07-09T08:14:29Z) - Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data [9.984630251008868]
この研究は、フェデレートラーニングにおける非IIDデータとストラグラー/ドロップアウトの課題に焦点を当てる。
クライアントのローカルデータの一部を非プライベートとしてモデル化する、プライバシフレキシブルなパラダイムを導入し、検討する。
論文 参考訳(メタデータ) (2024-04-04T15:29:50Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Feature Matching Data Synthesis for Non-IID Federated Learning [7.740333805796447]
フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:49:39Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Towards Efficient and Stable K-Asynchronous Federated Learning with
Unbounded Stale Gradients on Non-IID Data [10.299577499118548]
フェデレートラーニング(FL)は、複数の参加者が生データをアップロードすることなくグローバルモデルをトレーニングできる、新たなプライバシ保護パラダイムである。
本稿では,適応学習率(WKAFL)を持つ2段重み付き非同期FLを提案する。
ベンチマークと合成FLデータセットの両方に実装された実験は、WKAFLが既存のアルゴリズムよりも全体的なパフォーマンスが優れていることを示している。
論文 参考訳(メタデータ) (2022-03-02T16:17:23Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。