論文の概要: A 96pJ/Frame/Pixel and 61pJ/Event Anti-UAV System with Hybrid Object Tracking Modes
- arxiv url: http://arxiv.org/abs/2512.17939v1
- Date: Fri, 12 Dec 2025 13:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.071589
- Title: A 96pJ/Frame/Pixel and 61pJ/Event Anti-UAV System with Hybrid Object Tracking Modes
- Title(参考訳): ハイブリッド物体追跡モードによる96pJ/Frame/Pixelと61pJ/EventアンチUAVシステム
- Authors: Yuncheng Lu, Yucen Shi, Aobo Li, Zehao Li, Junying Li, Bo Wang, Tony Tae-Hyoung Kim,
- Abstract要約: 本稿では,フレームベースとイベント駆動型オブジェクトトラッキングを統合したエネルギー効率の高い対UAVシステムを提案する。
2mm2チップは1ピクセル当たり96pJ、イベント毎61pJを0.8Vで達成し、パブリックUAVデータセットでの認識精度は98.2%に達する。
- 参考スコア(独自算出の注目度): 5.593237736175593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an energy-efficient anti-UAV system that integrates frame-based and event-driven object tracking to enable reliable detection of small and fast-moving drones. The system reconstructs binary event frames using run-length encoding, generates region proposals, and adaptively switches between frame mode and event mode based on object size and velocity. A Fast Object Tracking Unit improves robustness for high-speed targets through adaptive thresholding and trajectory-based classification. The neural processing unit supports both grayscale-patch and trajectory inference with a custom instruction set and a zero-skipping MAC architecture, reducing redundant neural computations by more than 97 percent. Implemented in 40 nm CMOS technology, the 2 mm^2 chip achieves 96 pJ per frame per pixel and 61 pJ per event at 0.8 V, and reaches 98.2 percent recognition accuracy on public UAV datasets across 50 to 400 m ranges and 5 to 80 pixels per second speeds. The results demonstrate state-of-the-art end-to-end energy efficiency for anti-UAV systems.
- Abstract(参考訳): 本稿では、フレームベースとイベント駆動型オブジェクトトラッキングを統合し、小型かつ高速なドローンの信頼性検出を可能にするエネルギー効率の高い対UAVシステムを提案する。
このシステムは、実行長符号化を用いてバイナリイベントフレームを再構成し、領域提案を生成し、オブジェクトサイズと速度に基づいてフレームモードとイベントモードを適応的に切り替える。
Fast Object Tracking Unitは、適応しきい値と軌道に基づく分類により、高速な目標に対するロバスト性を改善する。
ニューラルネットワークユニットは、カスタム命令セットとゼロスキップMACアーキテクチャによるグレースケールパッチとトラジェクトリ推論の両方をサポートし、冗長なニューラル計算を97%以上削減する。
40nmのCMOS技術で実装された2mm^2チップは、1ピクセル当たり96pJ、1イベントあたり61pJ、0.8Vで達成し、50から400mの範囲のパブリックUAVデータセットでは98.2%、秒速では5から80pJに達する。
その結果, 対UAVシステムにおける最先端のエンド・ツー・エンドエネルギー効率が示された。
関連論文リスト
- Commercial Vehicle Braking Optimization: A Robust SIFT-Trajectory Approach [6.751326589596112]
不正確な制御領域ネットワーク(CAN)信号による「ゼロスピードブレーキ」問題に対処するために、視覚に基づく軌道解析ソリューションを提案する。
このアルゴリズムはNVIDIA Jetson AGX Xavierプラットフォームを使用して、ブラインドスポットカメラからシーケンシャルなビデオフレームを処理する。
現場での展開では、偽のブレーキイベントが89%減少し、緊急ブレーキの成功率は100%、故障率は5%以下である。
論文 参考訳(メタデータ) (2025-12-21T05:06:16Z) - Event-Based Visual Teach-and-Repeat via Fast Fourier-Domain Cross-Correlation [52.46888249268445]
本稿では,最初のイベントカメラを用いた視覚指導・再生システムを提案する。
本研究では,イベントストリームマッチング問題を計算効率の良い空間乗算に変換する周波数領域相互相関フレームワークを開発した。
Prophesee EVK4 HDイベントカメラをAgileX Scout Miniロボットに搭載した実験では、自律走行が成功している。
論文 参考訳(メタデータ) (2025-09-21T23:53:31Z) - Exploiting Lightweight Hierarchical ViT and Dynamic Framework for Efficient Visual Tracking [49.07982079554859]
トランスフォーマーをベースとしたビジュアルトラッカーは、その強力なモデリング能力のために大きな進歩を見せている。
しかし、処理速度が遅いため、リソース制約のあるデバイスでは実用性に制限がある。
各種デバイス間の高速動作を維持しながら高い性能を実現するための,効率的な追跡モデルであるHiTを提案する。
論文 参考訳(メタデータ) (2025-06-25T12:46:46Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Gesture Recognition for FMCW Radar on the Edge [0.0]
ジェスチャーは5つの特徴の集合によって効率的に特徴付けられることを示す。
リカレントニューラルネットワーク(RNN)ベースのアーキテクチャは、これらの特徴を利用して、5つの異なるジェスチャーを共同で検出し、分類する。
提案システムでは, ホールドアウトテストデータセットにおいて, 98.4%のF1スコアでジェスチャーを認識する。
論文 参考訳(メタデータ) (2023-10-13T06:03:07Z) - ColibriUAV: An Ultra-Fast, Energy-Efficient Neuromorphic Edge Processing
UAV-Platform with Event-Based and Frame-Based Cameras [14.24529561007139]
ColibriUAVはUAVプラットフォームで、フレームベースとイベントベースの両方のカメラインタフェースを備えている。
Krakenは、DVSカメラからのイベントデータとRGBカメラからのフレームデータの両方を効率的に処理することができる。
本稿では,ニューロモルフィックおよびイベントベースUAVサブシステムのエンドツーエンドレイテンシと電力効率をベンチマークする。
論文 参考訳(メタデータ) (2023-05-27T23:08:22Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。