論文の概要: Machine Learning for Sensor Transducer Conversion Routines
- arxiv url: http://arxiv.org/abs/2108.11374v1
- Date: Mon, 23 Aug 2021 20:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-28 03:14:45.236476
- Title: Machine Learning for Sensor Transducer Conversion Routines
- Title(参考訳): センサトランスデューサ変換ルーチンのための機械学習
- Authors: Thomas Newton, James T. Meech and Phillip Stanley-Marbell
- Abstract要約: 本稿では,BME680環境センサの新しい複雑な変換ルーチンを学習するための機械学習手法を提案する。
本研究では,変換ルーチンを学習する機械学習手法が,精度を保ちながら計算オーバーヘッドを低減した変換ルーチンを生成可能であることを示す。
- 参考スコア(独自算出の注目度): 0.19336815376402716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensors with digital outputs require software conversion routines to
transform the unitless ADC samples to physical quantities with the correct
units. These conversion routines are computationally complex given the limited
computational resources of low-power embedded systems. This article presents a
set of machine learning methods to learn new, less-complex conversion routines
that do not sacrifice accuracy for the BME680 environmental sensor. We present
a Pareto analysis of the tradeoff between accuracy and computational overhead
for the models and present models that reduce the computational overhead of the
existing industry-standard conversion routines for temperature, pressure, and
humidity by 62 %, 71 %, and 18 % respectively. The corresponding RMS errors for
these methods are 0.0114 $^\circ$C, 0.0280 KPa, and 0.0337 %. These results
show that machine learning methods for learning conversion routines can produce
conversion routines with reduced computational overhead while maintaining good
accuracy.
- Abstract(参考訳): デジタル出力を持つセンサは、ユニットレスadcサンプルを正しい単位で物理量に変換するソフトウェア変換ルーチンを必要とする。
これらの変換ルーチンは、低消費電力組み込みシステムの限られた計算資源から計算的に複雑である。
本稿では,BME680環境センサの精度を犠牲にすることなく,新しい複雑な変換ルーチンを学習するための機械学習手法を提案する。
本研究では, モデルにおける精度と計算オーバーヘッドのトレードオフをパレート解析し, 既存の産業標準変換ルーチンの計算オーバーヘッドを, 温度, 圧力, 湿度それぞれ62 %, 71 %, 18 %削減するモデルを提案する。
対応する RMS 誤差は 0.0114 $^\circ$C, 0.0280 KPa, 0.0337 % である。
これらの結果から,変換ルーチンを学習する機械学習手法は,高い精度を維持しつつ,計算オーバーヘッドを低減した変換ルーチンを生成できることが示唆された。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - A method of using RSVD in residual calculation of LowBit GEMM [0.0]
低ランク残差量子化行列乗算(LRQMM)法は、高密度な低精度量子化行列乗算に対する残差補償の低ランク近似を導入する。
BLAS-2レベルの余分な時間オーバーヘッドで数倍の精度向上を実現することができる。
ディープラーニングネットワークでは、LRQMM-4bitはResnet-50で61.8%のImageNet Top-1精度、Direct Quantの精度は8.3%である。
論文 参考訳(メタデータ) (2024-09-27T14:16:35Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - DCT Approximations Based on Chen's Factorization [0.17205106391379021]
2つの8点乗算自由DCT近似を提案し、その高速アルゴリズムも導出する。
JPEGライクな画像圧縮方式による実験を行い、競合する手法と比較した。
新しい変換セットをHEVCリファレンスソフトウェアに組み込み、HEVC準拠のビデオ符号化スキームを提供する。
論文 参考訳(メタデータ) (2022-07-24T02:31:28Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Mixed Precision of Quantization of Transformer Language Models for
Speech Recognition [67.95996816744251]
トランスフォーマーが表現する最先端のニューラルネットワークモデルは、実用アプリケーションにとってますます複雑で高価なものになりつつある。
現在の低ビット量子化法は、均一な精度に基づいており、量子化エラーに対するシステムの異なる部分での様々な性能感度を考慮できない。
最適局所精度設定は2つの手法を用いて自動的に学習される。
Penn Treebank (PTB)とSwitchboard corpusによるLF-MMI TDNNシステムの試験を行った。
論文 参考訳(メタデータ) (2021-11-29T09:57:00Z) - Dynamic Precision Analog Computing for Neural Networks [0.7701333337093469]
本稿では,演算を繰り返して平均化することにより,様々な精度レベルをサポートするアナログコンピューティングアーキテクチャの拡張を提案する。
動的精度を使用することで、Resnet50などのコンピュータビジョンモデルでは最大89%、BERTなどの自然言語処理モデルでは24%のエネルギー消費が削減されます。
論文 参考訳(メタデータ) (2021-02-12T06:56:56Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Sensitivity Prewarping for Local Surrogate Modeling [0.3222802562733786]
本稿では,グローバル感度解析からサロゲートモデルへ情報を取り込む枠組みを提案する。
ワープシミュレータ」がすべての入力方向に対して等しく敏感であるように入力ワーピングを行い、ローカルモデルがローカルダイナミクスに集中できるようにします。
論文 参考訳(メタデータ) (2021-01-15T20:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。