論文の概要: Real Time On Sensor Gait Phase Detection with 0.5KB Deep Learning Model
- arxiv url: http://arxiv.org/abs/2205.03234v1
- Date: Mon, 2 May 2022 09:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 01:14:36.886785
- Title: Real Time On Sensor Gait Phase Detection with 0.5KB Deep Learning Model
- Title(参考訳): 0.5kb深層学習モデルによるセンサ歩行位相検出のリアルタイム化
- Authors: Yi-An Chen, Jien-De Sui and Tian-Sheuan Chang
- Abstract要約: 畳み込みニューラルネットワークによる歩行位相検出は正確な分類を提供するが、高い計算コストを必要とする。
本稿では、0.5KBのモデルサイズと毎秒67Kの操作しか必要とせず、95.9%の精度で、幅と深さを縮小したU-Netのようなモデルでセグメント化に基づく歩行位相検出を行う。
- 参考スコア(独自算出の注目度): 2.79329087573672
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Gait phase detection with convolution neural network provides accurate
classification but demands high computational cost, which inhibits real time
low power on-sensor processing. This paper presents a segmentation based gait
phase detection with a width and depth downscaled U-Net like model that only
needs 0.5KB model size and 67K operations per second with 95.9% accuracy to be
easily fitted into resource limited on sensor microcontroller.
- Abstract(参考訳): 畳み込みニューラルネットワークによる歩行位相検出は、正確な分類を提供するが、高い計算コストを必要とするため、リアルタイムの低電力オンセンサー処理を阻害する。
本稿では,0.5KBのモデルサイズと毎秒67Kの操作しか必要とせず,95.9%の精度でセンサマイクロコントローラに制限された資源に容易に適用可能なセグメント化に基づく歩行位相検出手法を提案する。
関連論文リスト
- High-Throughput, High-Performance Deep Learning-Driven Light Guide Plate
Surface Visual Quality Inspection Tailored for Real-World Manufacturing
Environments [75.66288398180525]
光導光板は、医療用照明器具からバックライトテレビディスプレイまで幅広い用途で広く利用されている光学部品である。
本研究では,光ガイド板表面の視覚的品質検査(VQI)を現実の製造環境に適した,完全に統合された,高性能なディープラーニング駆動ワークフローを提案する。
完全統合VQIシステム内のエッジコンピューティング上でのVQIの自動化を実現するため、高コンパクトな深層アンチエイリアス型アテンションコンデンサニューラルネットワーク(LightDefectNetと呼ぶ)が開発された。
LightDetectNetが検出精度を実現する実験
論文 参考訳(メタデータ) (2022-12-20T20:11:11Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Optimizing Anchor-based Detectors for Autonomous Driving Scenes [22.946814647030667]
本稿では、自律走行シーンにおける一般的なアンカーベース検出器のモデル改善と推定時間最適化について要約する。
高性能RCNN-RSおよびRetinaNet-RS検出フレームワークに基づいて,群衆シーンの小さな物体をよりよく検出するために,検出器に適応するための一連のフレームワークの改善について検討した。
論文 参考訳(メタデータ) (2022-08-11T22:44:59Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Real-Time Wearable Gait Phase Segmentation For Running And Walking [1.8525902437585904]
畳み込みニューラルネットワーク(CNN)に基づく分類タスクは、異なるテストケース下で各フェーズを正確に分類するために、時間遅延や重重なり合ったスライドウインドウの面倒な手作業を必要とする。
本稿では,6軸IMUセンサのみを用いたセグメンテーションに基づく歩行位相検出手法を提案する。
20Hzサンプリングレートデータに基づくモデルでは,揺動時間8.86ms,姿勢時間9.12ms,歩行位相検出96.44%,ストライド検出99.97%の誤差が得られる。
論文 参考訳(メタデータ) (2022-05-10T04:43:34Z) - Small Object Detection Based on Modified FSSD and Model Compression [7.387639662781843]
本稿では,FSSDに基づく小型物体検出アルゴリズムを提案する。
計算コストと記憶空間を削減するため, モデル圧縮を実現するためにプルーニングを行う。
アルゴリズムの平均精度(mAP)は、PASCAL VOCで80.4%、GTX1080tiで59.5 FPSに達する。
論文 参考訳(メタデータ) (2021-08-24T03:20:32Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Neural Network Virtual Sensors for Fuel Injection Quantities with
Provable Performance Specifications [71.1911136637719]
証明可能な保証が、他の現実世界の設定にどのように自然に適用できるかを示す。
本研究では, 燃料噴射量を一定範囲で最大化するために, 特定の間隔の燃料噴射量を目標にする方法を示す。
論文 参考訳(メタデータ) (2020-06-30T23:33:17Z) - CoDeNet: Efficient Deployment of Input-Adaptive Object Detection on
Embedded FPGAs [41.43273142203345]
FPGAの柔軟性を利用して、変形可能な畳み込みを伴う新しいオブジェクト検出パイプラインを開発する。
高効率実装では、ソリューションは毎秒26.9フレームに達し、小さなモデルサイズは0.76MBである。
我々のモデルはPascal VOCで67.1 AP50に達し、パラメータは20.9倍小さいがTiny-YOLOより10%正確である。
論文 参考訳(メタデータ) (2020-06-12T17:56:47Z) - An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing [13.266626571886354]
本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
論文 参考訳(メタデータ) (2020-03-31T19:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。