論文の概要: A communication efficient distributed learning framework for smart
environments
- arxiv url: http://arxiv.org/abs/2109.13049v1
- Date: Mon, 27 Sep 2021 13:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:08:46.023898
- Title: A communication efficient distributed learning framework for smart
environments
- Title(参考訳): スマート環境のためのコミュニケーション効率の良い分散学習フレームワーク
- Authors: Lorenzo Valerio, Andrea Passarella, Marco Conti
- Abstract要約: 本稿では,データ生成箇所にデータ分析を近づける分散学習フレームワークを提案する。
分散機械学習技術を使用することで、クラウドソリューションに匹敵するパフォーマンスを確保しながら、ネットワークオーバーヘッドを大幅に削減することができる。
分析はまた、ノード上のデータの特定の分布に基づいて、各分散学習アプローチがいつ好ましいかを示す。
- 参考スコア(独自算出の注目度): 0.4898659895355355
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the pervasive diffusion of personal mobile and IoT devices, many
``smart environments'' (e.g., smart cities and smart factories) will be, among
others, generators of huge amounts of data. Currently, this is typically
achieved through centralised cloud-based data analytics services. However,
according to many studies, this approach may present significant issues from
the standpoint of data ownership, and even wireless network capacity. One
possibility to cope with these shortcomings is to move data analytics closer to
where data is generated. In this paper, we tackle this issue by proposing and
analyzing a distributed learning framework, whereby data analytics are
performed at the edge of the network, i.e., on locations very close to where
data is generated. Specifically, in our framework, partial data analytics are
performed directly on the nodes that generate the data, or on nodes close by
(e.g., some of the data generators can take this role on behalf of subsets of
other nodes nearby). Then, nodes exchange partial models and refine them
accordingly. Our framework is general enough to host different analytics
services. In the specific case analysed in the paper, we focus on a learning
task, considering two distributed learning algorithms. Using an activity
recognition and a pattern recognition task, both on reference datasets, we
compare the two learning algorithms between each other and with a central cloud
solution (i.e., one that has access to the complete datasets). Our results show
that using distributed machine learning techniques, it is possible to
drastically reduce the network overhead, while obtaining performance comparable
to the cloud solution in terms of learning accuracy. The analysis also shows
when each distributed learning approach is preferable, based on the specific
distribution of the data on the nodes.
- Abstract(参考訳): パーソナルなモバイルデバイスやiotデバイスの普及により、多くの‘スマート環境’(スマートシティやスマートファクトリーなど)が、膨大な量のデータを生成することになる。
現在、これは一般的に集中型クラウドベースのデータ分析サービスによって実現されている。
しかし、多くの研究によれば、このアプローチはデータの所有権や無線ネットワーク容量の観点からも重大な問題をもたらす可能性がある。
こうした欠点に対処できる1つの可能性は、データ分析をデータ生成の場所に近づけることである。
本稿では,分散学習フレームワークの提案と分析を行い,ネットワークのエッジ,すなわち,データ生成の場所と非常に近い場所でデータ分析を行う。
特に、我々のフレームワークでは、部分データ分析は、データを生成するノードまたは近接するノードに直接行われる(例えば、いくつかのデータジェネレータは、近くの他のノードのサブセットの代わりにこの役割を果たすことができる)。
その後、ノードは部分モデルを交換し、それに従って洗練する。
私たちのフレームワークは、さまざまな分析サービスをホストできるほど一般的です。
本論文で分析した特定のケースでは,2つの分散学習アルゴリズムを考慮した学習課題に着目した。
参照データセットの両方で、アクティビティ認識とパターン認識タスクを使用して、2つの学習アルゴリズムを中央のクラウドソリューション(つまり、完全なデータセットにアクセス可能なもの)とを比較します。
その結果、分散機械学習技術を用いることで、学習精度の観点からクラウドソリューションに匹敵する性能を得ながら、ネットワークオーバーヘッドを大幅に削減できることがわかった。
分析はまた、ノード上のデータの特定の分布に基づいて、各分散学習アプローチが望ましいタイミングを示す。
関連論文リスト
- Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Energy efficient distributed analytics at the edge of the network for
IoT environments [0.4898659895355355]
フォグコンピューティングのパラダイムを利用して、データが生成される場所に近づく。
分散学習フレームワークのさまざまな構成のパフォーマンスを分析します。
論文 参考訳(メタデータ) (2021-09-23T14:07:33Z) - Decentralized federated learning of deep neural networks on non-iid data [0.6335848702857039]
分散環境でパーソナライズされたディープラーニングモデルを学ぶことの難しさに対処する。
本稿では,PENS(Performance-Based Neighbor Selection)という手法を提案する。
PENSは強力なベースラインに比べて高い精度を達成することができる。
論文 参考訳(メタデータ) (2021-07-18T19:05:44Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z) - A decentralized aggregation mechanism for training deep learning models
using smart contract system for bank loan prediction [0.1933681537640272]
スマートコントラクトシステムを用いてディープラーニングアーキテクチャのトレーニングを行う場合,分散データ設定のメリットを享受するソリューションを提案する。
ブロックチェーン上でのローカルANNモデルから得られた中間表現を集約する機構を提案する。
得られたパフォーマンスは、個々のノードよりも優れているが、集中型データ設定と同等である。
論文 参考訳(メタデータ) (2020-11-22T10:47:45Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Distributed Learning in the Non-Convex World: From Batch to Streaming
Data, and Beyond [73.03743482037378]
分散学習は、多くの人々が想定する、大規模に接続された世界の重要な方向となっている。
本稿では、スケーラブルな分散処理とリアルタイムデータ計算の4つの重要な要素について論じる。
実践的な問題や今後の研究についても論じる。
論文 参考訳(メタデータ) (2020-01-14T14:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。