論文の概要: Decentralised and collaborative machine learning framework for IoT
- arxiv url: http://arxiv.org/abs/2312.12190v1
- Date: Tue, 19 Dec 2023 14:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:29:32.454705
- Title: Decentralised and collaborative machine learning framework for IoT
- Title(参考訳): iotのための分散協調型機械学習フレームワーク
- Authors: Mart\'in Gonz\'alez-Soto and Rebeca P. D\'iaz-Redondo and Manuel
Fern\'andez-Veiga and Bruno Rodr\'iguez-Castro and Ana Fern\'andez-Vilas
- Abstract要約: 本稿では、リソース制約のあるデバイスに特化して、分散的で協調的な機械学習フレームワークを提案する。
第一に、低パフォーマンスコンピューティング要素で動作するために特別に実装されたプロトタイプに基づく漸進学習アルゴリズムである。
第二に、ネットワーク内のコンピューティング要素間でローカルモデルを交換するランダムベースのプロトコルが2つある。
- 参考スコア(独自算出の注目度): 0.32985979395737774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralised machine learning has recently been proposed as a potential
solution to the security issues of the canonical federated learning approach.
In this paper, we propose a decentralised and collaborative machine learning
framework specially oriented to resource-constrained devices, usual in IoT
deployments. With this aim we propose the following construction blocks. First,
an incremental learning algorithm based on prototypes that was specifically
implemented to work in low-performance computing elements. Second, two
random-based protocols to exchange the local models among the computing
elements in the network. Finally, two algorithmics approaches for prediction
and prototype creation. This proposal was compared to a typical centralized
incremental learning approach in terms of accuracy, training time and
robustness with very promising results.
- Abstract(参考訳): 分散機械学習は、最近、正準連合学習アプローチのセキュリティ問題に対する潜在的な解決策として提案されている。
本稿では,iotデプロイメントにおいて普通に使用される,リソース制約のあるデバイスに特化した分散協調型機械学習フレームワークを提案する。
この目的により、以下の構成ブロックを提案する。
第一に、低パフォーマンスコンピューティング要素で動作するために特別に実装されたプロトタイプに基づく漸進学習アルゴリズム。
第二に、ネットワーク内のコンピューティング要素間でローカルモデルを交換するランダムベースのプロトコルが2つある。
最後に、予測とプロトタイプ作成のための2つのアルゴリズムアプローチ。
この提案は、精度、トレーニング時間、堅牢性、非常に有望な結果という観点から、典型的な集中型インクリメンタル学習アプローチと比較された。
関連論文リスト
- Initialisation and Network Effects in Decentralised Federated Learning [1.5961625979922607]
分散フェデレーション学習は、通信デバイスの分散ネットワーク上で、個々の機械学習モデルの協調トレーニングを可能にする。
このアプローチは、集中的な調整を避け、データのプライバシを高め、単一障害点のリスクを取り除く。
本稿では,基盤となる通信ネットワークの固有ベクトル集中度分布に基づく,ニューラルネットワークの非協調初期化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T14:24:36Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - Adaptive Serverless Learning [114.36410688552579]
本研究では,データから学習率を動的に計算できる適応型分散学習手法を提案する。
提案アルゴリズムは, 作業者数に対して線形高速化が可能であることを示す。
通信効率のオーバーヘッドを低減するため,通信効率のよい分散訓練手法を提案する。
論文 参考訳(メタデータ) (2020-08-24T13:23:02Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。