論文の概要: Enabling energy efficient machine learning on a Ultra-Low-Power vision
sensor for IoT
- arxiv url: http://arxiv.org/abs/2102.01340v1
- Date: Tue, 2 Feb 2021 06:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:23:44.013538
- Title: Enabling energy efficient machine learning on a Ultra-Low-Power vision
sensor for IoT
- Title(参考訳): IoT用Ultra-Low-Power視覚センサによるエネルギー効率向上機械学習
- Authors: Francesco Paissan, Massimo Gottardi, Elisabetta Farella
- Abstract要約: 本稿では,リアルタイム検出・分類・追跡パイプラインの開発・分析・実装について述べる。
8msの推算で得られる電力消費量は7.5mWである。
- 参考スコア(独自算出の注目度): 3.136861161060886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Internet of Things (IoT) and smart city paradigm includes ubiquitous
technology to extract context information in order to return useful services to
users and citizens. An essential role in this scenario is often played by
computer vision applications, requiring the acquisition of images from specific
devices. The need for high-end cameras often penalizes this process since they
are power-hungry and ask for high computational resources to be processed.
Thus, the availability of novel low-power vision sensors, implementing advanced
features like in-hardware motion detection, is crucial for computer vision in
the IoT domain. Unfortunately, to be highly energy-efficient, these sensors
might worsen the perception performance (e.g., resolution, frame rate, color).
Therefore, domain-specific pipelines are usually delivered in order to exploit
the full potential of these cameras. This paper presents the development,
analysis, and embedded implementation of a realtime detection, classification
and tracking pipeline able to exploit the full potential of background
filtering Smart Vision Sensors (SVS). The power consumption obtained for the
inference - which requires 8ms - is 7.5 mW.
- Abstract(参考訳): IoT(Internet of Things)とスマートシティのパラダイムには、ユーザと市民に有用なサービスを返却するためにコンテキスト情報を抽出するユビキタス技術が含まれている。
このシナリオにおいて重要な役割はコンピュータビジョンアプリケーションによって行われ、特定のデバイスから画像を取得する必要がある。
ハイエンドカメラの必要性は、電力消費と高い計算資源の処理を要求するため、このプロセスにペナルティを課すことが多い。
したがって、ハードウェア内モーション検出などの高度な機能を実装した新しい低消費電力視覚センサは、iot領域のコンピュータビジョンに不可欠である。
残念なことに、エネルギー効率が高いため、これらのセンサーは知覚性能(解像度、フレームレート、色など)を悪化させる可能性がある。
したがって、ドメイン固有のパイプラインは通常、これらのカメラの潜在能力を最大限活用するために配信される。
本稿では,背景フィルタリングスマートビジョンセンサ(svs)のポテンシャルを最大限活用できるリアルタイム検出,分類,追跡パイプラインの開発,解析,実装について述べる。
8msの推算で得られる電力消費量は7.5mWである。
関連論文リスト
- Energy-Efficient & Real-Time Computer Vision with Intelligent Skipping via Reconfigurable CMOS Image Sensors [5.824962833043625]
ビデオベースのコンピュータビジョンアプリケーションは、一般的に、その重要性に関わらず、フレーム内のすべてのピクセルを読み、処理するため、高エネルギー消費に悩まされる。
従来の作業では、入力パッチやピクセルをスキップし、最終タスクからのフィードバックを使ってスキップアルゴリズムをガイドすることで、このエネルギーを削減しようとしていた。
本稿では,センサの読み出しフェーズにおいて,フレーム内の不規則領域や行を選択的にスキップすることで,エネルギー効率を向上させるカスタムデザインCMOSイメージセンサ(CIS)システムを提案する。
論文 参考訳(メタデータ) (2024-09-25T20:32:55Z) - Event-based vision on FPGAs -- a survey [0.0]
フィールドプログラマブルゲートアレイ(FPGA)は、高速なデータ処理(リアルタイムでも)とエネルギー効率を実現している。
本稿では、FPGAがイベントデータを処理するために様々な文脈で使われている、最も重要な研究の概要について述べる。
フィルタリング、ステレオビジョン、光学フロー、オブジェクト分類のためのAIベースのアルゴリズムの加速、検出と追跡、ロボット工学および検査システムにおける応用などである。
論文 参考訳(メタデータ) (2024-07-11T10:07:44Z) - FAPNet: An Effective Frequency Adaptive Point-based Eye Tracker [0.6554326244334868]
イベントカメラは、視線追跡の領域における従来のカメラに代わるものだ。
既存のイベントベースの視線追跡ネットワークは、イベントにおける重要できめ細かい時間情報を無視する。
本稿では、ポイントクラウドをイベント表現として利用し、視線追跡タスクにおける事象の高時間分解能とスパース特性を利用する。
論文 参考訳(メタデータ) (2024-06-05T12:08:01Z) - Fully Quantized Always-on Face Detector Considering Mobile Image Sensors [12.806584794505751]
現在の顔検出器は、組み込みDNNと統合された「インテリジェント」CMOSイメージセンサの要件を完全に満たしていない。
本研究では,超低ビット軽量顔検出器を探索し,そのギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2023-11-02T05:35:49Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Decisive Data using Multi-Modality Optical Sensors for Advanced
Vehicular Systems [1.3315340349412819]
本稿では、最先端の前方視システムと車内運転監視システムの設計・開発のための様々な光学技術に焦点を当てる。
焦点を絞った光学センサーには、Longwave Thermal Imaging (LWIR)カメラ、Near Infrared (NIR)カメラ、Neuromorphic/イベントカメラ、Visible CMOSカメラ、Depthカメラなどがある。
論文 参考訳(メタデータ) (2023-07-25T16:03:47Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Learning, Computing, and Trustworthiness in Intelligent IoT
Environments: Performance-Energy Tradeoffs [62.91362897985057]
Intelligent IoT Environment(iIoTe)は、半自律IoTアプリケーションを協調実行可能な異種デバイスで構成されている。
本稿では,これらの技術の現状を概観し,その機能と性能,特にリソース,レイテンシ,プライバシ,エネルギー消費のトレードオフに注目した。
論文 参考訳(メタデータ) (2021-10-04T19:41:42Z) - Energy Drain of the Object Detection Processing Pipeline for Mobile
Devices: Analysis and Implications [77.00418462388525]
本稿では、移動体拡張現実(AR)クライアントのエネルギー消費と、畳み込みニューラルネットワーク(CNN)に基づく物体検出を行う際の検出遅延について、初めて詳細な実験を行った。
我々は,移動体ARクライアントのエネルギー分析を精査し,CNNによる物体検出を行う際のエネルギー消費に関するいくつかの興味深い視点を明らかにした。
論文 参考訳(メタデータ) (2020-11-26T00:32:07Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。