論文の概要: Optimising cost vs accuracy of decentralised analytics in fog computing
environments
- arxiv url: http://arxiv.org/abs/2012.05266v1
- Date: Wed, 9 Dec 2020 19:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:46:50.503088
- Title: Optimising cost vs accuracy of decentralised analytics in fog computing
environments
- Title(参考訳): フォグコンピューティング環境における分散分析の最適化コスト対精度
- Authors: Lorenzo Valerio, Andrea Passarella, Marco Conti
- Abstract要約: Fog Computingの基本概念であるデータ重力は、データ分析のための計算の分散化に向けられている。
本稿では,この連続体の最適動作点を求める分析フレームワークを提案する。
シミュレーションにより,モデルが最適トレードオフを正確に予測できることを示し,完全集中化と完全分散化の中間点となることが多い。
- 参考スコア(独自算出の注目度): 0.4898659895355355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exponential growth of devices and data at the edges of the Internet is
rising scalability and privacy concerns on approaches based exclusively on
remote cloud platforms. Data gravity, a fundamental concept in Fog Computing,
points towards decentralisation of computation for data analysis, as a viable
alternative to address those concerns. Decentralising AI tasks on several
cooperative devices means identifying the optimal set of locations or
Collection Points (CP for short) to use, in the continuum between full
centralisation (i.e., all data on a single device) and full decentralisation
(i.e., data on source locations). We propose an analytical framework able to
find the optimal operating point in this continuum, linking the accuracy of the
learning task with the corresponding \emph{network} and \emph{computational}
cost for moving data and running the distributed training at the CPs. We show
through simulations that the model accurately predicts the optimal trade-off,
quite often an \emph{intermediate} point between full centralisation and full
decentralisation, showing also a significant cost saving w.r.t. both of them.
Finally, the analytical model admits closed-form or numeric solutions, making
it not only a performance evaluation instrument but also a design tool to
configure a given distributed learning task optimally before its deployment.
- Abstract(参考訳): インターネットの端におけるデバイスとデータの指数関数的な成長は、リモートクラウドプラットフォームのみに基づくアプローチに対するスケーラビリティとプライバシの懸念を高めている。
フォグコンピューティングの基本的な概念であるデータ重力は、データ分析のための計算の分散化を、これらの問題に対処するための実行可能な代替手段として挙げている。
複数の協力デバイス上のAIタスクの分散化は、完全な集中化(すなわち、単一のデバイス上のすべてのデータ)と完全な分散化(すなわち、ソース位置のデータ)の間の連続体において、最適な場所またはコレクションポイント(CP)を特定することを意味する。
本稿では,この連続体における最適動作点を見つけるための分析フレームワークを提案する。学習タスクの精度を,データ移動とCPでの分散トレーニングの実行に充てて,対応する \emph{network} と \emph{computational} のコストにリンクする。
シミュレーションにより、モデルが最適トレードオフを正確に予測できることを示し、完全集中化と完全分散化の間の \emph{intermediate} ポイントをしばしば示し、w.r.t.の大幅なコスト削減も示した。
2人とも
最後に、分析モデルはクローズドフォームまたは数値ソリューションを認め、パフォーマンス評価器だけでなく、デプロイ前に所定の分散学習タスクを最適に構成する設計ツールも提供する。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - A Federated Distributionally Robust Support Vector Machine with Mixture of Wasserstein Balls Ambiguity Set for Distributed Fault Diagnosis [3.662364375995991]
本研究では、中央サーバとG$クライアントで構成されるネットワーク上で、データを共有せずに、分散ロバストな(DR)サポートベクタマシン(SVM)をフェデレーション方式でトレーニングする問題について検討する。
グローバルFDR-SVMをトレーニングするための2つの分散最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T19:21:45Z) - Delegating Data Collection in Decentralized Machine Learning [67.0537668772372]
分散機械学習(ML)エコシステムの出現に動機付けられ,データ収集のデリゲートについて検討する。
我々は、2つの基本的な情報非対称性を扱う最適でほぼ最適な契約を設計する。
最適効用の1-1/e分を達成できるような単純な線形契約により、主成分がそのような非対称性に対処できることが示される。
論文 参考訳(メタデータ) (2023-09-04T22:16:35Z) - Communication-Efficient Distributionally Robust Decentralized Learning [23.612400109629544]
分散学習アルゴリズムは、相互接続されたエッジデバイスにデータと計算資源を共有する権限を与える。
そこで本研究では,単一分散ループ降下/上昇アルゴリズム(ADGDA)を提案し,その基礎となるミニマックス最適化問題を解く。
論文 参考訳(メタデータ) (2022-05-31T09:00:37Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Cost-Effective Federated Learning in Mobile Edge Networks [37.16466118235272]
フェデレートラーニング(FL)は、多くのモバイルデバイスが生データを共有せずに協調的にモデルを学習できる分散ラーニングパラダイムである。
本研究は,モバイルエッジネットワークにおける適応FLの設計手法を解析し,本質的な制御変数を最適に選択し,総コストを最小化する。
我々は,収束関連未知パラメータを学習するために,低コストなサンプリングベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-12T03:02:24Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Privacy Amplification by Decentralization [0.0]
我々は,完全分散プロトコルに自然発生する,新たなldp(local differential privacy)緩和を提案する。
本研究では,トークンがネットワークグラフ上でウォークを実行し,受信者によって順次更新される分散計算モデルについて検討する。
アルゴリズムのプライバシとユーティリティのトレードオフがLDPを大幅に改善し、信頼/安全アグリゲーションとシャッフルに基づく方法で達成できるものと一致していることを証明しています。
論文 参考訳(メタデータ) (2020-12-09T21:33:33Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。