論文の概要: SEFR: A Fast Linear-Time Classifier for Ultra-Low Power Devices
- arxiv url: http://arxiv.org/abs/2006.04620v2
- Date: Thu, 19 Nov 2020 17:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:41:43.851299
- Title: SEFR: A Fast Linear-Time Classifier for Ultra-Low Power Devices
- Title(参考訳): SEFR:超低消費電力デバイスのための高速線形時間分類器
- Authors: Hamidreza Keshavarz, Mohammad Saniee Abadeh, Reza Rawassizadeh
- Abstract要約: トレーニングとテストフェーズの両方において,線形時間複雑性を有する超低消費電力分類器SEFRを提案する。
SEFRは、バイナリクラスデータセット上の最先端およびベースライン分類器の平均よりも63倍高速で、エネルギー効率が70倍高い。
これは、超低消費電力デバイスでのトレーニングとテストの両方を実行するために特別に設計された最初の多目的分類アルゴリズムである。
- 参考スコア(独自算出の注目度): 3.7453569782627656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental challenge for running machine learning algorithms on
battery-powered devices is the time and energy limitations, as these devices
have constraints on resources. There are resource-efficient classifier
algorithms that can run on these devices, but their accuracy is often
sacrificed for resource efficiency. Here, we propose an ultra-low power
classifier, SEFR, with linear time complexity, both in the training and the
testing phases. SEFR is comparable to state-of-the-art classifiers in terms of
classification accuracy, but it is 63 times faster and 70 times more energy
efficient than the average of state-of-the-art and baseline classifiers on
binary class datasets. The energy and memory consumption of SEFR is very
insignificant, and it can even perform both train and test phases on
microcontrollers. To our knowledge, this is the first multipurpose
classification algorithm specifically designed to perform both training and
testing on ultra-low power devices.
- Abstract(参考訳): バッテリー駆動デバイス上で機械学習アルゴリズムを実行する上での根本的な課題は、リソースに制約があるため、時間とエネルギーの制限である。
これらのデバイス上で実行できるリソース効率の高い分類アルゴリズムがあるが、その精度はリソース効率のために犠牲になることが多い。
本稿では, トレーニングとテストの両段階において, 線形時間複雑性を有する超低消費電力分類器SEFRを提案する。
SEFRは、分類精度の点で最先端分類器に匹敵するが、バイナリクラスデータセットにおける最先端分類器とベースライン分類器の平均の63倍のエネルギー効率と70倍のエネルギー効率を持つ。
SEFRのエネルギーとメモリ消費は非常に重要ではなく、マイクロコントローラ上で列車とテストの両方のフェーズを実行できる。
我々の知る限り、これは超低消費電力デバイスでのトレーニングとテストの両方を実行するために特別に設計された最初の多目的分類アルゴリズムである。
関連論文リスト
- Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - Assessment of few-hits machine learning classification algorithms for
low energy physics in liquid argon detectors [0.48182159227299687]
本稿では,従来の(決定論的)アルゴリズムに対する機械学習手法の評価を行う。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーエンコーダ(Transformer-Encoder)は、低エネルギー物理の最も難しい分類問題の一つとして、決定論的アルゴリズムよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-05-16T18:32:26Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Predicting Power Electronics Device Reliability under Extreme Conditions
with Machine Learning Algorithms [0.0]
我々は、デバイス信頼性を予測するために機械学習アルゴリズムを利用した。
モデルをトレーニングするために、私たちは10の異なるメーカーから224個の電源デバイスをテストしました。
我々は、グラディエント・ブースティングやLSTMエンコーダ・デコーダ・ネットワークなどの計算モデルにより、高精度で電源装置故障を予測できることを示した。
論文 参考訳(メタデータ) (2021-07-21T18:17:32Z) - Fast Federated Learning in the Presence of Arbitrary Device
Unavailability [26.368873771739715]
Federated Learning (FL)は異種デバイスをコーディネートして、ユーザのプライバシを維持しながら共有モデルを協調的にトレーニングする。
ひとつの課題は、デバイスが中央サーバ以外のトレーニングプロセスから外れることだ。
我々はこの問題を解決するためにIm Federated A patientaging (MIFA)を提案する。
論文 参考訳(メタデータ) (2021-06-08T07:46:31Z) - Training ELECTRA Augmented with Multi-word Selection [53.77046731238381]
本稿では,マルチタスク学習に基づくELECTRAの改良を目的としたテキストエンコーダ事前学習手法を提案する。
具体的には、識別器を訓練し、置換トークンを同時に検出し、候補集合から元のトークンを選択する。
論文 参考訳(メタデータ) (2021-05-31T23:19:00Z) - A Ternary Bi-Directional LSTM Classification for Brain Activation
Pattern Recognition Using fNIRS [0.15229257192293197]
機能近赤外分光法(FNIRS)は、脳の血流パターンを研究するために用いられる非侵襲的で低コストな方法である。
提案システムはタスク分類にBi-Directional LSTMベースのディープラーニングアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-01-14T22:21:15Z) - Optimal Task Assignment to Heterogeneous Federated Learning Devices [0.0]
本研究では,各デバイスがトレーニングに使用するデータ量を制御することにより,フェデレート学習ラウンドの期間を最小化する問題について検討する。
OLARというメイクタイムアルゴリズムを提案し、最適なスケジュールを提供することを示す。
この結果から,OLARは少ない実行時間で最適解を提供することがわかった。
論文 参考訳(メタデータ) (2020-10-01T07:58:48Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。