論文の概要: Millisecond-Response Tracking and Gazing System for UAVs: A Domestic Solution Based on "Phytium + Cambricon"
- arxiv url: http://arxiv.org/abs/2509.04043v1
- Date: Thu, 04 Sep 2025 09:26:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.112051
- Title: Millisecond-Response Tracking and Gazing System for UAVs: A Domestic Solution Based on "Phytium + Cambricon"
- Title(参考訳): ミリ秒応答型UAV追尾システム:"Phytium + Cambricon"に基づく国内ソリューション
- Authors: Yuchen Zhu, Longxiang Yin, Kai Zhao,
- Abstract要約: 本研究では,ミリ秒レベルの応答機能を持つUAVトラッキング・ギャージングシステムを提案する。
このシステムは1920*1080解像度のビデオストリーム処理において、安定した1フレームの包括的な処理遅延50-100msを実現する。
本研究は、UAVモニタリングと家庭用チップの応用のための革新的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 9.69343747733114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the frontier research and application of current video surveillance technology, traditional camera systems exhibit significant limitations of response delay exceeding 200 ms in dynamic scenarios due to the insufficient deep feature extraction capability of automatic recognition algorithms and the efficiency bottleneck of computing architectures, failing to meet the real-time requirements in complex scenes. To address this issue, this study proposes a heterogeneous computing architecture based on Phytium processors and Cambricon accelerator cards, constructing a UAV tracking and gazing system with millisecond-level response capability. At the hardware level, the system adopts a collaborative computing architecture of Phytium FT-2000/4 processors and MLU220 accelerator cards, enhancing computing power through multi-card parallelism. At the software level, it innovatively integrates a lightweight YOLOv5s detection network with a DeepSORT cascaded tracking algorithm, forming a closed-loop control chain of "detection-tracking-feedback". Experimental results demonstrate that the system achieves a stable single-frame comprehensive processing delay of 50-100 ms in 1920*1080 resolution video stream processing, with a multi-scale target recognition accuracy of over 98.5%, featuring both low latency and high precision. This study provides an innovative solution for UAV monitoring and the application of domestic chips.
- Abstract(参考訳): 現在のビデオ監視技術のフロンティア研究と応用において、従来のカメラシステムは、自動認識アルゴリズムの深い特徴抽出能力と計算アーキテクチャの効率ボトルネックが不十分なため、動的シナリオにおいて200ミリ秒を超える応答遅延の重大な制限を示し、複雑なシーンにおけるリアルタイム要件を満たしなかった。
そこで本研究では,PhytiumプロセッサとCambriconアクセルカードをベースとして,ミリ秒レベルの応答機能を備えたUAVトラッキング・ギャージングシステムを構築する異種コンピューティングアーキテクチャを提案する。
ハードウェアレベルでは、Phytium FT-2000/4プロセッサとMLU220アクセルカードの協調コンピューティングアーキテクチャを採用し、マルチカード並列処理による計算能力を向上させる。
ソフトウェアレベルでは、軽量のYOLOv5s検出ネットワークとDeepSORTのカスケード追跡アルゴリズムを革新的に統合し、「検出追跡フィードバック」の閉ループ制御チェーンを形成する。
実験の結果,1920*1080の解像度ビデオストリーム処理において,単一フレームの包括的処理遅延が安定的に50~100msで,マルチスケールの目標認識精度が98.5%を超え,低レイテンシと高精度の両方を特徴とすることがわかった。
本研究は、UAVモニタリングと家庭用チップの応用のための革新的なソリューションを提供する。
関連論文リスト
- A Lightweight Group Multiscale Bidirectional Interactive Network for Real-Time Steel Surface Defect Detection [15.140649886958945]
Group Multiscale Bidirectional Interactive (GMBI)モジュールは、マルチスケールの特徴抽出と相互作用を強化する。
SD-Saliency-900とNRSD-MNデータセットの実験は、GMBINetがGPUで1048 FPS、CPUで512解像度で16.53 FPSのリアルタイム速度で競合精度を提供することを示した。
論文 参考訳(メタデータ) (2025-08-22T13:58:35Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - RIDE: Real-time Intrusion Detection via Explainable Machine Learning
Implemented in a Memristor Hardware Architecture [24.824596231020585]
本稿では、パケットの任意の長さのシーケンスをよりコンパクトな結合機能埋め込みに統合するために、リカレントオートエンコーダを利用するパケットレベルのネットワーク侵入検出ソリューションを提案する。
提案手法は,パケットレベルで高い検出精度で,極めて効率的かつリアルタイムな解が得られることを示す。
論文 参考訳(メタデータ) (2023-11-27T17:30:19Z) - FPGA-QHAR: Throughput-Optimized for Quantized Human Action Recognition
on The Edge [0.6254873489691849]
本稿では,8ビット量子化された2ストリームSimpleNet-PyTorch CNNアーキテクチャに基づく,エンドツーエンドHAR拡張型HW/SWアクセラレータの共設計を提案する。
私たちの開発では、部分的にストリーミングデータフローアーキテクチャを使用して、ネットワーク設計やリソース利用のトレードオフよりも高いスループットを実現しています。
提案手法は,ZCU104上の187MHzで約24FPSのリアルタイム推論スループットを用いて,約81%の予測精度を達成した。
論文 参考訳(メタデータ) (2023-11-04T10:38:21Z) - High-Throughput, High-Performance Deep Learning-Driven Light Guide Plate
Surface Visual Quality Inspection Tailored for Real-World Manufacturing
Environments [75.66288398180525]
光導光板は、医療用照明器具からバックライトテレビディスプレイまで幅広い用途で広く利用されている光学部品である。
本研究では,光ガイド板表面の視覚的品質検査(VQI)を現実の製造環境に適した,完全に統合された,高性能なディープラーニング駆動ワークフローを提案する。
完全統合VQIシステム内のエッジコンピューティング上でのVQIの自動化を実現するため、高コンパクトな深層アンチエイリアス型アテンションコンデンサニューラルネットワーク(LightDefectNetと呼ぶ)が開発された。
LightDetectNetが検出精度を実現する実験
論文 参考訳(メタデータ) (2022-12-20T20:11:11Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - Real-time HOG+SVM based object detection using SoC FPGA for a UHD video
stream [0.0]
本稿では、HOG(Histogram of Oriented Gradients)特徴抽出とSVM(Support Vector Machine)分類を用いた、よく知られた歩行者検出器のリアルタイム実装について述べる。
このシステムは、歩行者を単一のスケールで検出することができる。
論文 参考訳(メタデータ) (2022-04-22T10:29:21Z) - Real-Time GPU-Accelerated Machine Learning Based Multiuser Detection for
5G and Beyond [70.81551587109833]
非線形ビームフォーミングフィルタは、大規模な接続を伴う定常シナリオにおいて、線形アプローチを著しく上回る。
主な課題の1つは、これらのアルゴリズムのリアルタイム実装である。
本稿では,大規模並列化によるAPSMに基づくアルゴリズムの高速化について検討する。
論文 参考訳(メタデータ) (2022-01-13T15:20:45Z) - Scaled-Time-Attention Robust Edge Network [2.4417312983418014]
本稿では,貯水池型ニューラルネットワークの遅延ループバージョンに基づいて,ニューラルネットワークの新たなファミリーを構築するための体系的なアプローチについて述べる。
結果として得られたアーキテクチャは、STARE(Scaled-Time-Attention Robust Edge)ネットワークと呼ばれ、超次元空間と非乗算演算を利用する。
我々は、STAREがパフォーマンスを改善し、実装の複雑さを低減した様々なアプリケーションに適用可能であることを実証した。
論文 参考訳(メタデータ) (2021-07-09T21:24:49Z) - Towards AIOps in Edge Computing Environments [60.27785717687999]
本稿では,異種分散環境に適用可能なaiopsプラットフォームのシステム設計について述べる。
高頻度でメトリクスを収集し、エッジデバイス上で特定の異常検出アルゴリズムを直接実行することが可能である。
論文 参考訳(メタデータ) (2021-02-12T09:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。