論文の概要: HyperCam: Low-Power Onboard Computer Vision for IoT Cameras
- arxiv url: http://arxiv.org/abs/2501.10547v1
- Date: Fri, 17 Jan 2025 20:41:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:46.391499
- Title: HyperCam: Low-Power Onboard Computer Vision for IoT Cameras
- Title(参考訳): HyperCam:IoTカメラ用の低消費電力オンボードコンピュータビジョン
- Authors: Chae Young Lee, Pu, Yi, Maxwell Fite, Tejus Rao, Sara Achour, Zerina Kapetanovic,
- Abstract要約: HyperCamは低消費電力カメラシステム上でコンピュータビジョンタスクを可能にするエネルギー効率の高い画像分類パイプラインである。
我々は市販のハードウェアを用いて低消費電力の無線カメラプラットフォームを実装し、HyperCamが93.60%の精度を達成できることを実証した。
42.91-63.00KBのフラッシュメモリと22.25KBのRAMをピーク時に使用しながら、0.08-0.27の推論遅延を提供する。
- 参考スコア(独自算出の注目度): 0.5990499580550845
- License:
- Abstract: We present HyperCam, an energy-efficient image classification pipeline that enables computer vision tasks onboard low-power IoT camera systems. HyperCam leverages hyperdimensional computing to perform training and inference efficiently on low-power microcontrollers. We implement a low-power wireless camera platform using off-the-shelf hardware and demonstrate that HyperCam can achieve an accuracy of 93.60%, 84.06%, 92.98%, and 72.79% for MNIST, Fashion-MNIST, Face Detection, and Face Identification tasks, respectively, while significantly outperforming other classifiers in resource efficiency. Specifically, it delivers inference latency of 0.08-0.27s while using 42.91-63.00KB flash memory and 22.25KB RAM at peak. Among other machine learning classifiers such as SVM, xgBoost, MicroNets, MobileNetV3, and MCUNetV3, HyperCam is the only classifier that achieves competitive accuracy while maintaining competitive memory footprint and inference latency that meets the resource requirements of low-power camera systems.
- Abstract(参考訳): 我々は,低消費電力IoTカメラシステム上でのコンピュータビジョンタスクを可能にする,エネルギー効率の高い画像分類パイプラインHyperCamを提案する。
HyperCamは超次元計算を利用して、低消費電力マイクロコントローラ上でのトレーニングと推論を効率的に行う。
市販のハードウェアを用いて低消費電力の無線カメラプラットフォームを実装し、MNIST, Fashion-MNIST, Face Detection, Face Identificationタスクに対して、HyperCamが93.60%, 84.06%, 92.98%, 72.79%の精度を達成できることを示した。
具体的には、42.91-63.00KBのフラッシュメモリと22.25KBのRAMをピーク時に使用しながら、0.08-0.27の推論遅延を提供する。
SVM、xgBoost、MicroNets、MobileNetV3、MCUNetV3などの機械学習分類器の中で、HyperCamは競合するメモリフットプリントと低消費電力カメラシステムのリソース要件を満たす推論レイテンシを維持しながら、競合する精度を達成する唯一の分類器である。
関連論文リスト
- Predictive Temporal Attention on Event-based Video Stream for
Energy-efficient Situation Awareness [5.541459858161597]
本稿では,視覚事象を適切に予測できない場合にのみ,カメラ出力を減速させ,注意を払うための時間的注意機構を提案する。
本研究では,カメラとプロセッサ間のデータ通信の46.7%を削減し,プロセッサの43.8%を削減できることを示す。
論文 参考訳(メタデータ) (2024-02-14T04:34:48Z) - MCUFormer: Deploying Vision Transformers on Microcontrollers with
Limited Memory [76.02294791513552]
我々はMCUFormerと呼ばれるハードウェア・アルゴリズムの協調最適化手法を提案し、メモリが極端に制限されたマイクロコントローラにビジョントランスフォーマーを配置する。
MCUFormerは320KBのメモリを持つ画像分類のためのImageNet上で73.62%のTop-1精度を実現している。
論文 参考訳(メタデータ) (2023-10-25T18:00:26Z) - Audio Tagging on an Embedded Hardware Platform [20.028643659869573]
Raspberry Piなどのハードウェアにデプロイした場合,大規模な事前学習型オーディオニューラルネットワークの性能がどう変化するかを分析する。
実験の結果,連続したCPU使用量によって温度が上昇し,自動減速機構が起動できることが判明した。
マイクの品質、特にGoogle AIY Voice Kitのような安価なデバイスや音声信号のボリュームは、システムのパフォーマンスに影響を与えます。
論文 参考訳(メタデータ) (2023-06-15T13:02:41Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Efficient Computer Vision on Edge Devices with Pipeline-Parallel
Hierarchical Neural Networks [5.061971419647377]
ディープニューラルネットワーク(DNN)のような最先端のコンピュータビジョンアルゴリズムは、低消費電力エッジデバイスでの推論には大きすぎる。
本稿では,階層型DNNアーキテクチャが複数のエッジデバイス上での並列処理に適していることを示す。
4つの低消費電力エッジデバイスで、我々の手法は3.21倍高いスループットを実現し、1フレームあたりのデバイス当たりのエネルギー消費量を68%削減し、58%のメモリ削減を実現した。
論文 参考訳(メタデータ) (2021-09-27T21:27:41Z) - TSM: Temporal Shift Module for Efficient and Scalable Video
Understanding on Edge Device [58.776352999540435]
本稿では,高能率かつ高能率な時間シフトモジュール(TSM)を提案する。
TSMは2次元CNNに挿入され、ゼロ計算とゼロパラメータでの時間的モデリングを実現する。
Jetson NanoとGalaxy Note8のオンラインビデオ認識では、74fpsと29fpsのハイフレームレートを実現している。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - MoViNets: Mobile Video Networks for Efficient Video Recognition [52.49314494202433]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識では正確だが、大きな計算とメモリ予算を必要とする。
本稿では,3次元CNNのピークメモリ使用量を大幅に削減しつつ,計算効率を向上させる3段階の手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:06:38Z) - Accelerating Deep Learning Applications in Space [0.0]
拘束デバイス上でのCNNを用いた物体検出の性能について検討する。
我々は、Single Shot MultiBox Detector (SSD)とリージョンベースのFully Convolutional Network (R-FCN)について詳しく検討する。
性能は、推測時間、メモリ消費、精度で測定される。
論文 参考訳(メタデータ) (2020-07-21T21:06:30Z) - Robustifying the Deployment of tinyML Models for Autonomous
mini-vehicles [61.27933385742613]
本稿では,ループ内環境を含む自動運転ミニ車両を対象とした閉ループ学習フローを提案する。
我々は、小型CNNのファミリーを利用してミニ車両を制御し、コンピュータビジョンアルゴリズム、すなわち専門家を模倣してターゲット環境で学習する。
CNNのファミリを実行する場合、我々のソリューションはSTM32L4とk64f(Cortex-M4)の他の実装よりも優れており、レイテンシを13倍以上削減し、エネルギー消費を92%削減する。
論文 参考訳(メタデータ) (2020-07-01T07:54:26Z) - Performance Evaluation of Low-Cost Machine Vision Cameras for
Image-Based Grasp Verification [0.0]
本稿では,マシンビジョンカメラを用いた視覚に基づく把握検証システムを提案する。
実験により,選択したマシンビジョンカメラとディープラーニングモデルにより,フレーム精度97%のグルーピングを堅牢に検証できることが実証された。
論文 参考訳(メタデータ) (2020-03-23T10:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。