論文の概要: Edge-GPU Based Face Tracking for Face Detection and Recognition Acceleration
- arxiv url: http://arxiv.org/abs/2505.04524v1
- Date: Wed, 07 May 2025 15:57:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.138509
- Title: Edge-GPU Based Face Tracking for Face Detection and Recognition Acceleration
- Title(参考訳): エッジGPUによる顔検出・認識高速化のための顔追跡
- Authors: Asma Baobaid, Mahmoud Meribout,
- Abstract要約: 本稿では,NVIDIA Jetson AGX Orin上での顔検出と認識を最適化するためのハードウェアとソフトウェアの組み合わせを提案する。
結果から,Orin GPUで利用可能なハードウェアエンジンとトラッカーをパイプラインに統合することにより,1920 x 1080 の入力サイズフレームに対して,平均 6 面/フレームを含む290 FPS (frames per second) の劇的なスループットが得られることが示唆された。
このハードウェア・コーデサイン・アプローチは、公共の場でのビデオ監視に不可欠である、エッジで高性能なマシンビジョンシステムを設計する方法を舗装することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cost-effective machine vision systems dedicated to real-time and accurate face detection and recognition in public places are crucial for many modern applications. However, despite their high performance, which could be reached using specialized edge or cloud AI hardware accelerators, there is still room for improvement in throughput and power consumption. This paper aims to suggest a combined hardware-software approach that optimizes face detection and recognition systems on one of the latest edge GPUs, namely NVIDIA Jetson AGX Orin. First, it leverages the simultaneous usage of all its hardware engines to improve processing time. This offers an improvement over previous works where these tasks were mainly allocated automatically and exclusively to the CPU or, to a higher extent, to the GPU core. Additionally, the paper suggests integrating a face tracker module to avoid redundantly running the face recognition algorithm for every frame but only when a new face appears in the scene. The results of extended experiments suggest that simultaneous usage of all the hardware engines that are available in the Orin GPU and tracker integration into the pipeline yield an impressive throughput of 290 FPS (frames per second) on 1920 x 1080 input size frames containing in average of 6 faces/frame. Additionally, a substantial saving of power consumption of around 800 mW was achieved when compared to running the task on the CPU/GPU engines only and without integrating a tracker into the Orin GPU\'92s pipeline. This hardware-codesign approach can pave the way to design high-performance machine vision systems at the edge, critically needed in video monitoring in public places where several nearby cameras are usually deployed for a same scene.
- Abstract(参考訳): 公共の場でのリアルタイムかつ正確な顔検出と認識に特化した費用対効果のマシンビジョンシステムは、現代の多くのアプリケーションにとって不可欠である。
しかし、エッジやクラウドAIハードウェアアクセラレーションを使用して到達可能なハイパフォーマンスにもかかわらず、スループットと消費電力の改善の余地はまだ残っている。
本稿では,最新のエッジGPUであるNVIDIA Jetson AGX Orin上での顔検出と認識システムを最適化する,ハードウェアとソフトウェアを組み合わせたアプローチを提案する。
まず、すべてのハードウェアエンジンの同時使用を活用して、処理時間を改善する。
これにより、これらのタスクを主にCPUに、あるいはGPUコアに、自動で、あるいは排他的に割り当てる従来の作業よりも改善される。
さらに,各フレームの顔認識アルゴリズムを冗長に実行せず,シーンに新しい顔が現れる場合にのみフェーストラッカモジュールを統合することを提案する。
拡張実験の結果、Orin GPUで利用可能なすべてのハードウェアエンジンとトラッカーをパイプラインに統合することで、1920 x 1080の入力サイズフレームで平均6面/フレームを含む290 FPS (frames per second)の劇的なスループットが得られることが示唆された。
さらに、CPU/GPUエンジン上でのみタスクを実行し、Orin GPU\'92sパイプラインにトラッカーを組み込まずに、およそ800mWの消費電力を削減した。
このハードウェア・コーデサイン・アプローチは、近くの複数のカメラが通常同じシーンに配置されている公共の場所での映像監視において、エッジで高性能なマシンビジョンシステムを設計するための道を開くことができる。
関連論文リスト
- Leveraging Simultaneous Usage of Edge GPU Hardware Engines for Video Face Detection and Recognition [0.0]
本稿では,エッジGPUで利用可能なハードウェアエンジンの同時使用を最大化することを目的とする。
これには、ほとんどの顔監視アプリケーションで必要とされるビデオデコーディングタスクが含まれている。
結果は、最近のNVIDIAエッジOrin GPUで利用可能なすべてのハードウェアエンジンを同時に使用し、高いスループットと約300mWの電力消費をわずかに削減し、約5%を占めることを示唆している。
論文 参考訳(メタデータ) (2025-05-07T15:22:17Z) - VR-Pipe: Streamlining Hardware Graphics Pipeline for Volume Rendering [1.9470707535768061]
我々は,3次元ガウススプラッティング法である最先端の放射界法を実装し,グラフィックAPIを用いて,今日のグラフィックハードウェアにおける合成および実世界のシーンで評価する。
このVR-Pipeはグラフィクスハードウェアに2つのイノベーションをシームレスに統合し、ボリュームレンダリングのためのハードウェアパイプラインを合理化します。
我々の評価によると、VR-Pipeはレンダリング性能を大幅に改善し、従来のグラフィックスパイプラインよりも2.78倍のスピードアップを実現し、ハードウェアのオーバーヘッドを無視できる。
論文 参考訳(メタデータ) (2025-02-24T11:46:36Z) - Benchmarking Edge Computing Devices for Grape Bunches and Trunks
Detection using Accelerated Object Detection Single Shot MultiBox Deep
Learning Models [2.1922186455344796]
この研究は、オブジェクト検出のための異なるプラットフォームのパフォーマンスをリアルタイムでベンチマークする。
著者らは、自然なVineデータセットを使用して、RetinaNet ResNet-50を微調整した。
論文 参考訳(メタデータ) (2022-11-21T17:02:33Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Efficient Visual Tracking via Hierarchical Cross-Attention Transformer [82.92565582642847]
本稿では,HCAT と呼ばれる階層型クロスアテンショントランスを用いた効率的な追跡手法を提案する。
当社のモデルは、GPUで約195fps、CPUで45fps、NVidia Jetson AGX XavierのエッジAIプラットフォームで55fpsで動作します。
論文 参考訳(メタデータ) (2022-03-25T09:45:27Z) - High Performance Hyperspectral Image Classification using Graphics
Processing Units [0.0]
リアルタイムリモートセンシングアプリケーションは、オンボードのリアルタイム処理機能を必要とする。
軽量で小型で低消費電力のハードウェアは、オンボードのリアルタイム処理システムに不可欠である。
論文 参考訳(メタデータ) (2021-05-30T09:26:03Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z) - Efficient Video Semantic Segmentation with Labels Propagation and
Refinement [138.55845680523908]
本稿では,ハイブリッドGPU/CPUを用いた高精細ビデオのリアルタイムセマンティックセマンティックセマンティック化の問題に取り組む。
i) CPU上では、非常に高速な光フロー法であり、ビデオの時間的側面を利用して、あるフレームから次のフレームへ意味情報を伝達するために使用される。
高解像度フレーム(2048 x 1024)を持つ一般的なCityscapesデータセットでは、単一のGPUとCPU上で80から1000Hzの動作ポイントが提案されている。
論文 参考訳(メタデータ) (2019-12-26T11:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。