論文の概要: A Tiny Supervised ODL Core with Auto Data Pruning for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2408.01283v2
- Date: Fri, 27 Sep 2024 00:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 13:18:17.187445
- Title: A Tiny Supervised ODL Core with Auto Data Pruning for Human Activity Recognition
- Title(参考訳): オート・データ・プルーニングによる人間活動認識用ODLコアの小型化
- Authors: Hiroki Matsutani, Radu Marculescu,
- Abstract要約: 我々は,人間の活動認識のための入力データの分布変化に対処できる,低コストで低消費電力の小型教師ありオンデバイス学習(ODL)コアを導入する。
本稿では,教師用ODLと自動データプルーニングを組み合わせることで,教師用デバイスから予測されたラベルを取得するのに必要なクエリ数を削減することを提案する。
人間の活動認識のための数mWの小さなMLソリューションとして、45nmのCMOSプロセス技術を用いて、自動データプルーニングをサポートする教師付きODLコアを設計する。
- 参考スコア(独自算出の注目度): 8.182301077895852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a low-cost and low-power tiny supervised on-device learning (ODL) core that can address the distributional shift of input data for human activity recognition. Although ODL for resource-limited edge devices has been studied recently, how exactly to provide the training labels to these devices at runtime remains an open-issue. To address this problem, we propose to combine an automatic data pruning with supervised ODL to reduce the number queries needed to acquire predicted labels from a nearby teacher device and thus save power consumption during model retraining. The data pruning threshold is automatically tuned, eliminating a manual threshold tuning. As a tinyML solution at a few mW for the human activity recognition, we design a supervised ODL core that supports our automatic data pruning using a 45nm CMOS process technology. We show that the required memory size for the core is smaller than the same-shaped multilayer perceptron (MLP) and the power consumption is only 3.39mW. Experiments using a human activity recognition dataset show that the proposed automatic data pruning reduces the communication volume by 55.7% and power consumption accordingly with only 0.9% accuracy loss.
- Abstract(参考訳): 本稿では,人間活動認識のための入力データの分布変化に対処できる,低コストで低消費電力の小型教師ありオンデバイス学習(ODL)コアを提案する。
リソース制限エッジデバイス用のODLは近年研究されているが、実行時にこれらのデバイスにトレーニングラベルを正確に提供する方法は未解決のままである。
この問題に対処するために、教師付きODLと自動データプルーニングを組み合わせることで、教師装置から予測されたラベルを取得するのに必要なクエリ数を削減し、モデル再トレーニング時の消費電力を削減することを提案する。
データプルーニングしきい値が自動的に調整され、手動のしきい値調整が不要になる。
人間の活動認識のための数mWの小さなMLソリューションとして、45nmのCMOSプロセス技術を用いて、自動データプルーニングをサポートする教師付きODLコアを設計する。
我々は,コアに必要なメモリサイズが同一形状の多層パーセプトロン(MLP)よりも小さく,消費電力は3.39mWであることを示した。
人間の活動認識データセットを用いた実験では、提案した自動データプルーニングにより通信容量が55.7%減少し、消費電力は0.9%の精度で減少した。
関連論文リスト
- Automatic Structured Pruning for Efficient Architecture in Federated Learning [5.300811350105823]
フェデレートラーニング(FL)では、訓練はクライアントデバイス上で行われ、典型的には限られた計算資源とストレージ容量を持つ。
FLシステムに適した自動プルーニング方式を提案する。
当社のソリューションは,通信コストを最小化しながら,クライアントデバイスの効率を向上する。
論文 参考訳(メタデータ) (2024-11-04T02:52:02Z) - Optimizing TinyML: The Impact of Reduced Data Acquisition Rates for Time Series Classification on Microcontrollers [6.9604565273682955]
本稿では,時系列分類におけるデータ取得率の低減がTinyMLモデルに与える影響について検討する。
データサンプリング頻度を下げることで、RAM使用量、エネルギー消費、レイテンシ、MAC操作を約4倍に削減することを目指している。
論文 参考訳(メタデータ) (2024-09-17T07:21:49Z) - Towards Sustainable Personalized On-Device Human Activity Recognition with TinyML and Cloud-Enabled Auto Deployment [6.9604565273682955]
この研究は、オンデバイスのTinyML駆動コンピューティングとクラウド対応の自動デプロイを組み合わせた新しい組み合わせによって、課題に対処するために設計された、手首のスマートバンドを導入している。
アクティビティクラスを、最小限のキャリブレーションで独自のムーブメントスタイルに調整することができる。
システムはパーソナライズされた設定において、一般化されたモデルよりも精度が37%向上する。
論文 参考訳(メタデータ) (2024-08-26T13:28:41Z) - Human-in-the-loop Reinforcement Learning for Data Quality Monitoring in Particle Physics Experiments [0.0]
本稿では,データ品質モニタリングプロセスを自動化するために,人間によるループ強化学習を適用するための概念実証を提案する。
人間の分類におけるランダムな非バイアスノイズが低減され,ベースラインの精度が向上することを示す。
論文 参考訳(メタデータ) (2024-05-24T12:52:46Z) - An adaptive human-in-the-loop approach to emission detection of Additive
Manufacturing processes and active learning with computer vision [76.72662577101988]
In-situ monitoring and process control in Additive Manufacturing (AM) は大量の排出データを収集することを可能にする。
このデータは、3Dプリントされた部品の3Dおよび2D表現への入力として使用できる。
本研究の目的は,機械学習技術を用いた適応型ヒューマン・イン・ザ・ループ手法を提案することである。
論文 参考訳(メタデータ) (2022-12-12T15:11:18Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Maintaining Performance with Less Data [12.54745966896411]
本稿では,画像分類のためのニューラルネットワークのトレーニング手法を提案する。
ランタイムを最大50%削減し, 炭素排出量を比例的に削減しながら, 精度を維持できることを示す。
論文 参考訳(メタデータ) (2022-08-03T12:22:18Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。