論文の概要: FedDCL: a federated data collaboration learning as a hybrid-type privacy-preserving framework based on federated learning and data collaboration
- arxiv url: http://arxiv.org/abs/2409.18356v1
- Date: Fri, 27 Sep 2024 00:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 06:50:51.794466
- Title: FedDCL: a federated data collaboration learning as a hybrid-type privacy-preserving framework based on federated learning and data collaboration
- Title(参考訳): FedDCL:フェデレーション学習とデータコラボレーションに基づくハイブリッド型プライバシ保護フレームワーク
- Authors: Akira Imakura, Tetsuya Sakurai,
- Abstract要約: 提案するFedDCLフレームワークは,ユーザ機関による反復的な通信を必要としない。
実験の結果,提案したFedDCLの性能は,既存のフェデレーション学習に匹敵することがわかった。
- 参考スコア(独自算出の注目度): 6.952045528182883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, federated learning has attracted much attention as a privacy-preserving integrated analysis that enables integrated analysis of data held by multiple institutions without sharing raw data. On the other hand, federated learning requires iterative communication across institutions and has a big challenge for implementation in situations where continuous communication with the outside world is extremely difficult. In this study, we propose a federated data collaboration learning (FedDCL), which solves such communication issues by combining federated learning with recently proposed non-model share-type federated learning named as data collaboration analysis. In the proposed FedDCL framework, each user institution independently constructs dimensionality-reduced intermediate representations and shares them with neighboring institutions on intra-group DC servers. On each intra-group DC server, intermediate representations are transformed to incorporable forms called collaboration representations. Federated learning is then conducted between intra-group DC servers. The proposed FedDCL framework does not require iterative communication by user institutions and can be implemented in situations where continuous communication with the outside world is extremely difficult. The experimental results show that the performance of the proposed FedDCL is comparable to that of existing federated learning.
- Abstract(参考訳): 近年,複数の機関が生データを共有せずに保持するデータの統合分析を可能にするプライバシー保護統合分析として,フェデレーション学習が注目されている。
一方,フェデレーテッド・ラーニングでは,機関間の反復的なコミュニケーションが必要であり,外部との継続的なコミュニケーションが極めて困難である状況において,実装に大きな課題がある。
本研究では,フェデレーション学習と最近提案された非モデル共有型フェデレーション学習をデータコラボレーション分析として組み合わせることで,そのようなコミュニケーション問題を解決するフェデレーションデータ協調学習(FedDCL)を提案する。
提案するFedDCLフレームワークでは,各利用者機関が独立に次元再現型中間表現を構築し,グループ内DCサーバ上で近隣機関と共有する。
各グループ内のDCサーバでは、中間表現はコラボレート表現と呼ばれる組込み可能な形式に変換される。
その後、グループ内のDCサーバ間でフェデレーション学習が行われる。
提案するFedDCLフレームワークは,ユーザ機関による反復的な通信を必要としないため,外部との継続的な通信が極めて困難である状況でも実装可能である。
実験の結果,提案したFedDCLの性能は,既存のフェデレーション学習に匹敵することがわかった。
関連論文リスト
- Jigsaw Game: Federated Clustering [37.50063509290197]
本稿では, 深層学習の枠組みにおいて, フェデレートされたk平均に対する非ショット目標がもたらす課題について検討する。
これらの課題に対処するために、我々は、FeCAと呼ばれるフレームワークにおいて、k-平均の局所解の構造を研究することによって、新しい視点を採用する。
論文 参考訳(メタデータ) (2024-07-17T17:42:25Z) - On the Federated Learning Framework for Cooperative Perception [28.720571541022245]
フェデレーション学習は、コネクテッドおよび自律走行車間の認識、意思決定、計画において、データのプライバシ保護と協調的な拡張を可能にすることで、有望なソリューションを提供する。
本研究では,FedDWAアルゴリズム(Federated dynamic weighted aggregate, FedDWA)と呼ばれる,CPのための特殊な統合学習フレームワークを提案する。
このフレームワークは、動的クライアント重み付けをモデル収束の直接化に利用し、KLD(Kullback-Leibler divergence)を利用して非独立的かつ同一に分散された(Non-IID)データとアンバランスなデータの有害な影響を対処する新しい損失関数を統合する。
論文 参考訳(メタデータ) (2024-04-26T04:34:45Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - IFedAvg: Interpretable Data-Interoperability for Federated Learning [39.388223565330385]
本研究では,表型データに対するフェデレーション学習において,クライアントデータの不整合によって引き起こされる低相互運用性の定義と対処を行う。
提案手法であるiFedAvgは、協調学習プロセスのパーソナライズされたきめ細かな理解を可能にするために、局所的な要素ワイドアフィン層を追加するフェデレーション平均化に基づいている。
我々は、2014~2016年の西アフリカエボラ流行から得られた、いくつかの公開ベンチマークと実世界のデータセットを用いて、iFedAvgを評価し、世界でも最大規模のデータセットを共同で作成した。
論文 参考訳(メタデータ) (2021-07-14T09:54:00Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - IBM Federated Learning: an Enterprise Framework White Paper V0.1 [28.21579297214125]
Federated Learning(FL)は、トレーニングデータを単一の場所で集中化せずに機械学習を実行するアプローチである。
このフレームワークは、最も一般的な機械学習ライブラリに対する従来のアプローチと同様に、Deep Neural Networksにも適用される。
論文 参考訳(メタデータ) (2020-07-22T05:32:00Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。