論文の概要: Quantifying the Performance of Federated Transfer Learning
- arxiv url: http://arxiv.org/abs/1912.12795v1
- Date: Mon, 30 Dec 2019 03:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:14:45.892151
- Title: Quantifying the Performance of Federated Transfer Learning
- Title(参考訳): フェデレーション・トランスファー学習の性能の定量化
- Authors: Qinghe Jing, Weiyan Wang, Junxue Zhang, Han Tian, Kai Chen
- Abstract要約: Federated Transfer Learning(FTL)は、データのプライバシを侵害することなくデータを共有するためのソリューションである。
FTLは、異なるソースからのデータをトレーニングに利用するために転送学習技術を使用する。
本稿は,Google Cloud上の実世界のFTL実装を定量的に測定することで,この問題に対処しようとするものである。
- 参考スコア(独自算出の注目度): 7.1423970352437385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scarcity of data and isolated data islands encourage different
organizations to share data with each other to train machine learning models.
However, there are increasing concerns on the problems of data privacy and
security, which urges people to seek a solution like Federated Transfer
Learning (FTL) to share training data without violating data privacy. FTL
leverages transfer learning techniques to utilize data from different sources
for training, while achieving data privacy protection without significant
accuracy loss. However, the benefits come with a cost of extra computation and
communication consumption, resulting in efficiency problems. In order to
efficiently deploy and scale up FTL solutions in practice, we need a deep
understanding on how the infrastructure affects the efficiency of FTL. Our
paper tries to answer this question by quantitatively measuring a real-world
FTL implementation FATE on Google Cloud. According to the results of carefully
designed experiments, we verified that the following bottlenecks can be further
optimized: 1) Inter-process communication is the major bottleneck; 2) Data
encryption adds considerable computation overhead; 3) The Internet networking
condition affects the performance a lot when the model is large.
- Abstract(参考訳): データと孤立したデータアイランドの不足により、さまざまな組織がデータを互いに共有して、マシンラーニングモデルをトレーニングすることが可能になる。
しかし、データプライバシとセキュリティの問題に対する懸念が高まり、データプライバシに違反せずにトレーニングデータを共有するために、federated transfer learning(ftl)のようなソリューションを求めることが求められている。
ftlはトランスファー学習技術を利用して、異なるソースからのデータをトレーニングに利用し、データプライバシ保護を、精度を損なうことなく実現している。
しかし、その利点は余分な計算と通信消費のコストが伴うため、効率上の問題が生じる。
実際にFTLソリューションを効率的にデプロイし、スケールアップするには、インフラがFTLの効率にどのように影響するかを深く理解する必要がある。
本稿では,実世界のFTL実装であるFATEをGoogle Cloud上で定量的に測定することで,この問題に対処しようとする。
注意深く設計された実験の結果、以下のボトルネックをさらに最適化できることを確認した。
1)プロセス間通信が大きなボトルネックである。
2) データの暗号化は,大幅な計算オーバーヘッドを増大させる。
3)インターネットネットワークの条件は,モデルが大きい場合のパフォーマンスに大きく影響する。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - SLoRA: Federated Parameter Efficient Fine-Tuning of Language Models [28.764782216513037]
FL(Federated Learning)は、FLエッジクライアントの分散データとプライベートデータの恩恵を受けることができる。
異種データシナリオにおけるLoRAの重要な制約を克服するSLoRAという手法を提案する。
実験の結果,SLoRAは完全微調整に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-08-12T10:33:57Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。