論文の概要: Efficient and Low-Footprint Object Classification using Spatial Contrast
- arxiv url: http://arxiv.org/abs/2311.03422v1
- Date: Mon, 6 Nov 2023 15:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 18:17:21.452178
- Title: Efficient and Low-Footprint Object Classification using Spatial Contrast
- Title(参考訳): 空間コントラストを用いた効率的な低出力オブジェクト分類
- Authors: Matthew Belding, Daniel C. Stumpp, Rajkumar Kubendran
- Abstract要約: イベントベースの視覚センサは、伝統的に時間コントラストを計算し、低消費電力で低レイテンシなセンシングとコンピューティングの可能性を秘めている。
本研究では,局所空間コントラスト(SC)を用いたイベントベースセンサの代替パラダイムについて検討した。
- 参考スコア(独自算出の注目度): 0.07589017023705934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based vision sensors traditionally compute temporal contrast that
offers potential for low-power and low-latency sensing and computing. In this
research, an alternative paradigm for event-based sensors using localized
spatial contrast (SC) under two different thresholding techniques, relative and
absolute, is investigated. Given the slow maturity of spatial contrast in
comparison to temporal-based sensors, a theoretical simulated output of such a
hardware sensor is explored. Furthermore, we evaluate traffic sign
classification using the German Traffic Sign dataset (GTSRB) with well-known
Deep Neural Networks (DNNs). This study shows that spatial contrast can
effectively capture salient image features needed for classification using a
Binarized DNN with significant reduction in input data usage (at least 12X) and
memory resources (17.5X), compared to high precision RGB images and DNN, with
only a small loss (~2%) in macro F1-score. Binarized MicronNet achieves an
F1-score of 94.4% using spatial contrast, compared to only 56.3% when using RGB
input images. Thus, SC offers great promise for deployment in power and
resource constrained edge computing environments.
- Abstract(参考訳): イベントベースのビジョンセンサは従来、低消費電力と低レイテンシのセンシングとコンピューティングの潜在的な時間的コントラストを計算する。
本研究では,局所空間コントラスト (localized spatial contrast, sc) を2つの異なるしきい値法と絶対値法で用いるイベント型センサの代替パラダイムについて検討した。
時間的センサと比較して空間コントラストの遅さを考慮し、そのようなハードウェアセンサの理論的シミュレーション出力を探索する。
さらに,よく知られたディープニューラルネットワーク(dnn)を用いたドイツのトラヒックサインデータセット(gtsrb)を用いて,トラヒックサイン分類を評価する。
本研究では,高精細RGB画像やDNNと比較して,入力データ使用量(少なくとも12倍)とメモリリソース(17.5倍)を大幅に削減したバイナリ化DNNを用いて,分類に必要な有意な画像特徴を効果的に捉えることができることを示す。
バイナリ化されたMicronNetは空間コントラストを用いて94.4%のF1スコアを達成する。
したがって、SCはパワーとリソース制約のあるエッジコンピューティング環境へのデプロイを大いに約束します。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Resource-Efficient Gesture Recognition using Low-Resolution Thermal
Camera via Spiking Neural Networks and Sparse Segmentation [1.7758299835471887]
本研究は,安価で低解像度(24×32)熱センサを用いた手動作認識のための新しいアプローチを提案する。
標準のRGBカメラと比較して、提案システムは照明のバリエーションに敏感である。
本稿では,最近提案されたモノスタブル・マルチバイブレータ(MMV)ニューラルネットワークを新しいSNNのクラスとして革新的に利用することで,メモリと計算の複雑さが1桁以上小さくなることを示す。
論文 参考訳(メタデータ) (2024-01-12T13:20:01Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - A Simulation-Augmented Benchmarking Framework for Automatic RSO Streak
Detection in Single-Frame Space Images [7.457841062817294]
大規模データセットが利用可能な場合、ディープ畳み込みニューラルネットワーク(DCNN)は、オブジェクト検出において優れたパフォーマンスを示している。
RSO検出のための新しいシミュレーション強化ベンチマークフレームワーク(SAB-RSOD)を紹介する。
本フレームワークでは,実空間画像をキャプチャするセンサのハードウェアパラメータを最大限に活用することにより,まず高忠実度RSOシミュレータを開発する。
次に,このシミュレータを用いて宇宙空間に多彩なROSを含む画像を生成し,自動的に注釈を付ける。
論文 参考訳(メタデータ) (2023-04-30T07:00:16Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - NeighCNN: A CNN based SAR Speckle Reduction using Feature preserving
Loss Function [1.7188280334580193]
NeighCNNは、乗法ノイズを処理するディープラーニングベースのスペックル削減アルゴリズムである。
様々な合成、および実際のSAR画像は、NeighCNNアーキテクチャのテストに使用される。
論文 参考訳(メタデータ) (2021-08-26T04:20:07Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - DCT-SNN: Using DCT to Distribute Spatial Information over Time for
Learning Low-Latency Spiking Neural Networks [7.876001630578417]
Spiking Neural Networks(SNN)は、従来のディープラーニングフレームワークに代わる有望な選択肢を提供する。
SNNは高い推論遅延に悩まされており、デプロイメントの大きなボトルネックとなっている。
本稿では、離散コサイン変換(DCT)を用いて、推論に必要な時間ステップ数を削減できるスケーラブルな時間ベースの符号化方式を提案する。
論文 参考訳(メタデータ) (2020-10-05T05:55:34Z) - EBBINNOT: A Hardware Efficient Hybrid Event-Frame Tracker for Stationary
Dynamic Vision Sensors [5.674895233111088]
本稿では,静止型ニューロモルフィックセンサによって記録された物体を検知・追跡するための複合イベントフレーム手法を提案する。
静的DVSの背景除去特性を活用するために,フレーム内のイベントの有無を通知するイベントベースバイナリ画像生成を提案する。
静止DVSベースのトラフィック監視ソリューションが、同時に記録されたRGBフレームベースの方法と比較されるのは、これが初めてである。
論文 参考訳(メタデータ) (2020-05-31T03:01:35Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。