論文の概要: A Modified UDP for Federated Learning Packet Transmissions
- arxiv url: http://arxiv.org/abs/2208.05737v1
- Date: Thu, 11 Aug 2022 10:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:06:59.290873
- Title: A Modified UDP for Federated Learning Packet Transmissions
- Title(参考訳): フェデレーション学習パケット伝送のための修正UDP
- Authors: Bright Kudzaishe Mahembe and Clement Nyirenda
- Abstract要約: 本稿では,モデルトランスポートプロセスの効率性と信頼性を確保するために,フェデレートラーニングのためのUDP(Modified User Datagram Protocol)を提案する。
このプロトコルの開発とテストにおいて、NS3シミュレータはネットワーク上のパケット転送をシミュレートするために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a Modified User Datagram Protocol (UDP) for Federated
Learning to ensure efficiency and reliability in the model parameter transport
process, maximizing the potential of the Global model in each Federated
Learning round. In developing and testing this protocol, the NS3 simulator is
utilized to simulate the packet transport over the network and Google
TensorFlow is used to create a custom Federated learning environment. In this
preliminary implementation, the simulation contains three nodes where two nodes
are client nodes, and one is a server node. The results obtained in this paper
provide confidence in the capabilities of the protocol in the future of
Federated Learning therefore, in future the Modified UDP will be tested on a
larger Federated learning system with a TensorFlow model containing more
parameters and a comparison between the traditional UDP protocol and the
Modified UDP protocol will be simulated. Optimization of the Modified UDP will
also be explored to improve efficiency while ensuring reliability.
- Abstract(参考訳): 本稿では,各フェデレート学習ラウンドにおけるグローバルモデルのポテンシャルを最大化し,モデルパラメータ転送プロセスの効率性と信頼性を確保するために,フェデレート学習のための修正ユーザデータグラムプロトコル(UDP)を提案する。
このプロトコルの開発とテストでは、NS3シミュレータを使用してネットワーク上のパケット転送をシミュレートし、Google TensorFlowを使用して独自のフェデレート学習環境を構築する。
この予備実装では、2つのノードがクライアントノードであり、1つはサーバノードである3つのノードを含む。
本稿では,本論文で得られた結果から,連合学習の今後におけるプロトコルの能力に自信を与え,将来的には,より多くのパラメータを含むtensorflowモデルを持つ大規模連合学習システム上で,修正udpをテストし,従来のudpプロトコルと修正udpプロトコルとの比較をシミュレートする。
また,信頼性を確保しつつ効率向上を図るため,修正UDPの最適化も検討する。
関連論文リスト
- TPN: Transferable Proto-Learning Network towards Few-shot Document-Level Relation Extraction [9.4094500796859]
文書レベルの関係抽出はNOTA関係表現のクロスドメイン転送性により性能が低下する。
本稿では,この課題に対処するため,Transferable Proto-Learning Network (TPN)を導入する。
TPNは3つのコアコンポーネントから構成される: ハイブリッド階層は、入力テキストのセマンティックコンテンツをアテンション情報と組み合わせてエンコードし、関係表現を強化する。
論文 参考訳(メタデータ) (2024-10-01T05:37:31Z) - Power Flow Analysis Using Deep Neural Networks in Three-Phase Unbalanced
Smart Distribution Grids [0.7037008937757394]
本稿では3つのディープニューラルネットワーク(DNN)を提案し,PF(Power Flow)ソリューションの予測を行った。
トレーニングデータとテストデータは、OpenDSS-MATLAB COMインターフェースを介して生成される。
提案手法の新規性は、モデルが不均衡分布格子に対するPF解を正確に予測できることである。
論文 参考訳(メタデータ) (2024-01-15T04:43:37Z) - OSP: Boosting Distributed Model Training with 2-stage Synchronization [24.702780532364056]
オーバーラップ並列化(OSP)と呼ばれる新しいモデル同期手法を提案する。
OSPは2段階同期方式で効率的な通信を実現し、Local-Gradientベースを使用する。
古いパラメータによる精度損失を避けるための修正(LGP)。
その結果、OSPは、一般的な同期モデルと比較して、精度を損なうことなく、最大50%のスループット向上を達成できることがわかった。
論文 参考訳(メタデータ) (2023-06-29T13:24:12Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - DeepTPI: Test Point Insertion with Deep Reinforcement Learning [6.357061090668433]
テストポイント挿入(TPI)は、テスト容易性向上のための広く使われている技術である。
深部強化学習(DRL)に基づく新しいTPI手法であるDeepTPIを提案する。
市販のDFTツールと比較して,DeepTPIはテストカバレッジを著しく改善することがわかった。
論文 参考訳(メタデータ) (2022-06-07T14:13:42Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - Dynamic Sampling and Selective Masking for Communication-Efficient
Federated Learning [11.511755449420253]
Federated Learning(FL)は、デバイス上のインテリジェンスを分散トレーニングとフェデレーション最適化を通じて実現する、新しい機械学習環境である。
本稿では,動的サンプリングによる通信効率向上のための2つのアプローチと,トップ$k選択マスキングを提案する。
論文 参考訳(メタデータ) (2020-03-21T08:20:04Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。