論文の概要: Contrastive Federated Learning with Tabular Data Silos
- arxiv url: http://arxiv.org/abs/2409.06123v1
- Date: Tue, 10 Sep 2024 00:24:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-11 19:30:38.981655
- Title: Contrastive Federated Learning with Tabular Data Silos
- Title(参考訳): タブラルデータサイロを用いた対照的フェデレーション学習
- Authors: Achmad Ginanjar, Xue Li, Wen Hua,
- Abstract要約: データサイロから学習するためのソリューションとして,データサイロを用いたコントラシティブフェデレーション学習(CFL)を提案する。
CFLはこれらの課題に対処し、精度を向上させるために現在の手法より優れています。
複雑なクライアント環境において,コントラッシブ・フェデレート・ラーニング・アプローチの利点を示す肯定的な結果を示す。
- 参考スコア(独自算出の注目度): 9.516897428263146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from data silos is a difficult task for organizations that need to obtain knowledge of objects that appeared in multiple independent data silos. Objects in multi-organizations, such as government agents, are referred by different identifiers, such as driver license, passport number, and tax file number. The data distributions in data silos are mostly non-IID (Independently and Identically Distributed), labelless, and vertically partitioned (i.e., having different attributes). Privacy concerns harden the above issues. Conditions inhibit enthusiasm for collaborative work. While Federated Learning (FL) has been proposed to address these issues, the difficulty of labeling, namely, label costliness, often hinders optimal model performance. A potential solution lies in contrastive learning, an unsupervised self-learning technique to represent semantic data by contrasting similar data pairs. However, contrastive learning is currently not designed to handle tabular data silos that existed within multiple organizations where data linkage by quasi identifiers are needed. To address these challenges, we propose using semi-supervised contrastive federated learning, which we refer to as Contrastive Federated Learning with Data Silos (CFL). Our approach tackles the aforementioned issues with an integrated solution. Our experimental results demonstrate that CFL outperforms current methods in addressing these challenges and providing improvements in accuracy. Additionally, we present positive results that showcase the advantages of our contrastive federated learning approach in complex client environments.
- Abstract(参考訳): データサイロから学ぶことは、複数の独立したデータサイロに現れるオブジェクトの知識を得る必要がある組織にとって難しいタスクです。
政府エージェントのようなマルチ組織内のオブジェクトは、運転免許証、パスポート番号、税制ファイル番号など、異なる識別子によって参照される。
データサイロ内のデータ分布は、主に非IID(独立におよびIdentically Distributed)、ラベルなし、垂直に分割された(つまり、異なる属性を持つ)。
プライバシーに関する懸念は上記の問題を厳しくする。
条件は協調作業への熱意を阻害する。
フェデレートラーニング(FL)はこれらの問題に対処するために提案されているが、ラベルのコストラインのラベル付けの難しさは、しばしば最適なモデル性能を妨げる。
潜在的な解決策は、類似したデータペアを対比して意味データを表現する教師なしの自己学習技術であるコントラスト学習にある。
しかし、対照的な学習は、現在、擬似識別子によるデータリンクが必要な複数の組織に存在する表形式のデータサイロを扱うように設計されていない。
これらの課題に対処するために,データサイロを用いたコントラシブ・フェデレーション・ラーニング(Contrastive Federated Learning with Data Silos, CFL)と呼ばれる半教師付きコントラスト・フェデレーション・ラーニングを提案する。
当社のアプローチは、前述の問題に統合されたソリューションで取り組みます。
実験の結果,CFLはこれらの課題に対処し,精度を向上する上で,現在の手法よりも優れていることがわかった。
さらに, 複雑なクライアント環境において, コントラッシブ・フェデレート・ラーニング・アプローチの利点を示す肯定的な結果を示す。
関連論文リスト
- Rehearsal-Free Continual Federated Learning with Synergistic Regularization [14.258111055761479]
連続的フェデレートラーニング(Continuous Federated Learning, CFL)は、分散デバイスがトレーニングデータを継続的にシフトすることで、新しい概念を協調的に学習することを可能にする。
我々は、CFLのシナプスインテリジェンスを不均一なデータ設定で調整するFedSSIという、単純かつ効果的なCFLの正規化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-18T12:16:41Z) - Non-IID data in Federated Learning: A Systematic Review with Taxonomy, Metrics, Methods, Frameworks and Future Directions [2.9434966603161072]
この体系的なレビューは、非IIDデータ、パーティションプロトコル、メトリクスの詳細な分類を提供することによってギャップを埋めることを目的としている。
非IIDデータに対処するための一般的なソリューションと、異種データを用いたフェデレートラーニングで使用される標準化されたフレームワークについて述べる。
論文 参考訳(メタデータ) (2024-11-19T09:53:28Z) - A Stochastic Optimization Framework for Private and Fair Learning From Decentralized Data [14.748203847227542]
プライベート・フェア・フェデレーション・ラーニング(FL)のための新しいアルゴリズムを開発した。
我々のアルゴリズムは、サイロ間レコードレベル差分プライバシー(ISRL-DP)を満たす。
実験では、さまざまなプライバシレベルにわたるアルゴリズムのトレードオフとして、最先端の公正性・正確性フレームワークが実証されている。
論文 参考訳(メタデータ) (2024-11-12T15:51:35Z) - Entropy Law: The Story Behind Data Compression and LLM Performance [115.70395740286422]
モデル性能はトレーニングデータの圧縮比と負の相関関係にあり,トレーニング損失が小さくなるのが普通である。
エントロピー法則の知見に基づいて, 極めて効率的で普遍的なデータ選択法を提案する。
また,モデルトレーニング開始時の潜在的な性能リスクを検出するエントロピー法則の興味深い応用を提案する。
論文 参考訳(メタデータ) (2024-07-09T08:14:29Z) - Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data [9.984630251008868]
この研究は、フェデレートラーニングにおける非IIDデータとストラグラー/ドロップアウトの課題に焦点を当てる。
クライアントのローカルデータの一部を非プライベートとしてモデル化する、プライバシフレキシブルなパラダイムを導入し、検討する。
論文 参考訳(メタデータ) (2024-04-04T15:29:50Z) - Empowering HWNs with Efficient Data Labeling: A Clustered Federated
Semi-Supervised Learning Approach [2.046985601687158]
CFL(Clustered Federated Multitask Learning)は,統計的課題を克服するための効果的な戦略として注目されている。
本稿では,より現実的なHWNシナリオ用に設計された新しいフレームワークであるClustered Federated Semi-Supervised Learning (CFSL)を紹介する。
その結果,ラベル付きデータとラベル付きデータの比率が異なる場合,CFSLはテスト精度,ラベル付け精度,ラベル付け遅延などの重要な指標を著しく改善することがわかった。
論文 参考訳(メタデータ) (2024-01-19T11:47:49Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Feature Matching Data Synthesis for Non-IID Federated Learning [7.740333805796447]
フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:49:39Z) - Federated Learning without Full Labels: A Survey [23.49131075675469]
本稿では,フェデレーション学習と半教師付き学習,自己教師型学習,移動学習を併用する手法について検討する。
また、フルラベルなしでFLメソッドを評価するために使われるデータセットを要約する。
論文 参考訳(メタデータ) (2023-03-25T12:13:31Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Towards Federated Long-Tailed Learning [76.50892783088702]
データプライバシとクラス不均衡は、多くの機械学習タスクの例外ではなく、標準である。
最近の試みでは、広範にわたるプライベートデータから学習する問題に対処する一方で、長い尾を持つデータから学ぶことが試みられている。
本稿では,プライバシ保護フェデレーション学習(FL)フレームワークのコンテキスト下での長期的データ分散(LT)学習に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-30T02:34:22Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - Towards Efficient and Stable K-Asynchronous Federated Learning with
Unbounded Stale Gradients on Non-IID Data [10.299577499118548]
フェデレートラーニング(FL)は、複数の参加者が生データをアップロードすることなくグローバルモデルをトレーニングできる、新たなプライバシ保護パラダイムである。
本稿では,適応学習率(WKAFL)を持つ2段重み付き非同期FLを提案する。
ベンチマークと合成FLデータセットの両方に実装された実験は、WKAFLが既存のアルゴリズムよりも全体的なパフォーマンスが優れていることを示している。
論文 参考訳(メタデータ) (2022-03-02T16:17:23Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - Federated Learning on Non-IID Data Silos: An Experimental Study [34.28108345251376]
トレーニングデータは断片化され、複数のデータサイロの分散データベースを形成している。
本稿では,典型的な非IIDデータケースをカバーする包括的データ分割手法を提案する。
非IIDはFLアルゴリズムの精度を学習する上で大きな課題をもたらしており、既存のFLアルゴリズムが他のどの場合よりも優れているものはない。
論文 参考訳(メタデータ) (2021-02-03T14:29:09Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。