論文の概要: Reservoir-Based Distributed Machine Learning for Edge Operation
- arxiv url: http://arxiv.org/abs/2104.00751v1
- Date: Thu, 1 Apr 2021 20:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 02:08:21.838972
- Title: Reservoir-Based Distributed Machine Learning for Edge Operation
- Title(参考訳): エッジ操作のための貯留層型分散機械学習
- Authors: Silvija Kokalj-Filipovic, Paul Toliver, William Johnson, Rob Miller
- Abstract要約: スマートセンサを組み込んだ機械学習アルゴリズムの現場学習のための新しい設計を紹介します。
無線周波数(RF)スペクトルセンサを用いた分散トレーニングシナリオについて述べる。
- 参考スコア(独自算出の注目度): 0.6451914896767135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel design for in-situ training of machine learning
algorithms built into smart sensors, and illustrate distributed training
scenarios using radio frequency (RF) spectrum sensors. Current RF sensors at
the Edge lack the computational resources to support practical, in-situ
training for intelligent signal classification. We propose a solution using
Deepdelay Loop Reservoir Computing (DLR), a processing architecture that
supports machine learning algorithms on resource-constrained edge-devices by
leveraging delayloop reservoir computing in combination with innovative
hardware. DLR delivers reductions in form factor, hardware complexity and
latency, compared to the State-ofthe- Art (SoA) neural nets. We demonstrate DLR
for two applications: RF Specific Emitter Identification (SEI) and wireless
protocol recognition. DLR enables mobile edge platforms to authenticate and
then track emitters with fast SEI retraining. Once delay loops separate the
data classes, traditionally complex, power-hungry classification models are no
longer needed for the learning process. Yet, even with simple classifiers such
as Ridge Regression (RR), the complexity grows at least quadratically with the
input size. DLR with a RR classifier exceeds the SoA accuracy, while further
reducing power consumption by leveraging the architecture of parallel (split)
loops. To authenticate mobile devices across large regions, DLR can be trained
in a distributed fashion with very little additional processing and a small
communication cost, all while maintaining accuracy. We illustrate how to merge
locally trained DLR classifiers in use cases of interest.
- Abstract(参考訳): 本稿では,スマートセンサに組み込まれた機械学習アルゴリズムの現場トレーニングのための新しい設計を提案し,無線周波数(rf)スペクトルセンサを用いた分散トレーニングシナリオについて述べる。
エッジの現在のRFセンサーは、インテリジェント信号分類のための実用的なその場トレーニングをサポートするための計算資源を欠いている。
本稿では,遅延ループリザーバコンピューティングと革新的なハードウェアを組み合わせることで,リソース制約のあるエッジデバイス上で機械学習アルゴリズムをサポートする処理アーキテクチャであるdeepdelay loop reservoir computing(dlr)を用いたソリューションを提案する。
dlrは、最先端の(soa)ニューラルネットと比較して、フォームファクタ、ハードウェアの複雑さ、レイテンシの削減を提供する。
RF特定エミッタ識別(SEI)と無線プロトコル認識の2つのアプリケーションに対してDLRを実証する。
DLRは、モバイルエッジプラットフォームを認証し、高速なSEIリトレーニングでエミッターを追跡する。
一度遅延ループがデータクラスを分離すると、伝統的に複雑なパワーハングリー分類モデルが学習プロセスに不要になる。
しかし、リッジ回帰(RR)のような単純な分類器でさえ、複雑性は入力サイズとともに少なくとも2倍に増大する。
RR分類器付きDLRはSoAの精度を超え、並列(分割)ループのアーキテクチャを活用することで消費電力をさらに削減する。
大規模なリージョンでモバイルデバイスを認証するために、DLRは、精度を維持しながら、非常に少ない追加処理と少ない通信コストで分散形式で訓練することができる。
我々は,ローカルに訓練されたdlr分類器を興味のある場合にマージする方法を示す。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Efficient Model Adaptation for Continual Learning at the Edge [15.334881190102895]
ほとんどの機械学習(ML)システムは、トレーニングとデプロイメントの間、定常的で一致したデータ分散を前提としている。
データ分布は、環境要因、センサー特性、タスク・オブ・関心などの変化により、時間とともに変化することが多い。
本稿では,ドメインシフト下での効率的な連続学習のためのアダプタ・リコンフィグレータ(EAR)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T23:55:17Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - Reservoir Based Edge Training on RF Data To Deliver Intelligent and
Efficient IoT Spectrum Sensors [0.6451914896767135]
本稿では,コンパクトなモバイルデバイス上での汎用機械学習アルゴリズムをサポートする処理アーキテクチャを提案する。
Deep Delay Loop Reservoir Computing (DLR)は、Stand-of-the-Art (SoA)と比較して、フォームファクタ、ハードウェアの複雑さ、レイテンシを低減します。
状態ベクトルを線形に結合した複数の小さなループからなるDLRアーキテクチャを、リッジ回帰に対する低次元入力を生成する。
論文 参考訳(メタデータ) (2021-04-01T20:08:01Z) - Enabling Incremental Training with Forward Pass for Edge Devices [0.0]
進化戦略(ES)を用いてネットワークを部分的に再トレーニングし,エラー発生後に変更に適応し,回復できるようにする手法を提案する。
この技術は、バックプロパゲーションを必要とせず、最小限のリソースオーバーヘッドで推論専用ハードウェアのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-03-25T17:43:04Z) - Deep Delay Loop Reservoir Computing for Specific Emitter Identification [0.5906031288935515]
戦術的なエッジにある現在のAIシステムは、その場でのトレーニングと状況認識のための推論をサポートするための計算資源を欠いている。
本稿では,DLR(Deep delay Loop Reservoir Computing)という,小型モバイルデバイス上での汎用機械学習アルゴリズムをサポートする処理アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-13T19:32:38Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。