論文の概要: FedDCL: a federated data collaboration learning as a hybrid-type privacy-preserving framework based on federated learning and data collaboration
- arxiv url: http://arxiv.org/abs/2409.18356v1
- Date: Fri, 27 Sep 2024 00:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 06:50:51.794466
- Title: FedDCL: a federated data collaboration learning as a hybrid-type privacy-preserving framework based on federated learning and data collaboration
- Title(参考訳): FedDCL:フェデレーション学習とデータコラボレーションに基づくハイブリッド型プライバシ保護フレームワーク
- Authors: Akira Imakura, Tetsuya Sakurai,
- Abstract要約: 提案するFedDCLフレームワークは,ユーザ機関による反復的な通信を必要としない。
実験の結果,提案したFedDCLの性能は,既存のフェデレーション学習に匹敵することがわかった。
- 参考スコア(独自算出の注目度): 6.952045528182883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, federated learning has attracted much attention as a privacy-preserving integrated analysis that enables integrated analysis of data held by multiple institutions without sharing raw data. On the other hand, federated learning requires iterative communication across institutions and has a big challenge for implementation in situations where continuous communication with the outside world is extremely difficult. In this study, we propose a federated data collaboration learning (FedDCL), which solves such communication issues by combining federated learning with recently proposed non-model share-type federated learning named as data collaboration analysis. In the proposed FedDCL framework, each user institution independently constructs dimensionality-reduced intermediate representations and shares them with neighboring institutions on intra-group DC servers. On each intra-group DC server, intermediate representations are transformed to incorporable forms called collaboration representations. Federated learning is then conducted between intra-group DC servers. The proposed FedDCL framework does not require iterative communication by user institutions and can be implemented in situations where continuous communication with the outside world is extremely difficult. The experimental results show that the performance of the proposed FedDCL is comparable to that of existing federated learning.
- Abstract(参考訳): 近年,複数の機関が生データを共有せずに保持するデータの統合分析を可能にするプライバシー保護統合分析として,フェデレーション学習が注目されている。
一方,フェデレーテッド・ラーニングでは,機関間の反復的なコミュニケーションが必要であり,外部との継続的なコミュニケーションが極めて困難である状況において,実装に大きな課題がある。
本研究では,フェデレーション学習と最近提案された非モデル共有型フェデレーション学習をデータコラボレーション分析として組み合わせることで,そのようなコミュニケーション問題を解決するフェデレーションデータ協調学習(FedDCL)を提案する。
提案するFedDCLフレームワークでは,各利用者機関が独立に次元再現型中間表現を構築し,グループ内DCサーバ上で近隣機関と共有する。
各グループ内のDCサーバでは、中間表現はコラボレート表現と呼ばれる組込み可能な形式に変換される。
その後、グループ内のDCサーバ間でフェデレーション学習が行われる。
提案するFedDCLフレームワークは,ユーザ機関による反復的な通信を必要としないため,外部との継続的な通信が極めて困難である状況でも実装可能である。
実験の結果,提案したFedDCLの性能は,既存のフェデレーション学習に匹敵することがわかった。
関連論文リスト
- FedRSClip: Federated Learning for Remote Sensing Scene Classification Using Vision-Language Models [23.830133838392964]
本稿では,VLM,特にCLIPに基づくリモートセンシング画像分類のための最初のフェデレーション学習フレームワークであるFedRSCLIPを提案する。
FedRSCLIPは、Prompt Learningを導入することで、フェデレーション環境におけるデータ不均一性と大規模モデル伝送の課題に対処する。
提案モデルの有効性を検証するため,既存の3つのリモートセンシング画像分類データセットに基づいてFed-RSICデータセットを構築した。
論文 参考訳(メタデータ) (2025-01-05T07:10:27Z) - Large Language Model Federated Learning with Blockchain and Unlearning for Cross-Organizational Collaboration [18.837908762300493]
大規模言語モデル(LLM)は、コンピュータが人間の言語を理解し、処理する方法を変えてきたが、それらを様々な組織で効果的に利用することは難しいままである。
パブリックとプライベートのブロックチェーンアーキテクチャとマルチエージェント強化学習を組み合わせた,ハイブリッドブロックチェーンベースのフェデレーション学習フレームワークを提案する。
当社のフレームワークは,プライベートチェーンの機密計算を保護しながら,パブリックブロックチェーンを通じてモデル更新の透過的な共有を可能にする。
論文 参考訳(メタデータ) (2024-12-18T06:56:09Z) - Jigsaw Game: Federated Clustering [37.50063509290197]
本稿では, 深層学習の枠組みにおいて, フェデレートされたk平均に対する非ショット目標がもたらす課題について検討する。
これらの課題に対処するために、我々は、FeCAと呼ばれるフレームワークにおいて、k-平均の局所解の構造を研究することによって、新しい視点を採用する。
論文 参考訳(メタデータ) (2024-07-17T17:42:25Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - IBM Federated Learning: an Enterprise Framework White Paper V0.1 [28.21579297214125]
Federated Learning(FL)は、トレーニングデータを単一の場所で集中化せずに機械学習を実行するアプローチである。
このフレームワークは、最も一般的な機械学習ライブラリに対する従来のアプローチと同様に、Deep Neural Networksにも適用される。
論文 参考訳(メタデータ) (2020-07-22T05:32:00Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。