論文の概要: Benchmarking Anomaly Detection System on various Jetson Edge Devices
- arxiv url: http://arxiv.org/abs/2307.16834v1
- Date: Fri, 28 Jul 2023 17:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 13:20:26.725930
- Title: Benchmarking Anomaly Detection System on various Jetson Edge Devices
- Title(参考訳): 各種ジェットソンエッジデバイスにおけるベンチマーク異常検出システム
- Authors: Hoang Viet Pham, Thinh Gia Tran, Chuong Dinh Le, An Dinh Le, Hien Bich
Vo
- Abstract要約: 本稿では,RTFM(Robust Temporal Feature Magnitude Learning)と呼ばれる弱教師付きビデオ異常検出を,エンドツーエンドの犯罪現場異常検出システムに適用する。
また、AIシステムが従来のJetsonデバイスよりも15%優れたパフォーマンスを達成するという、有望なJetsonデバイスを発見しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Capturing the abnormal event from surveillance videos enhances the safety and
well-being of the citizens. The application of EdgeAI (Edge computing-based
Artificial Intelligent ) meets the strict latency requirements for security. In
this paper, we apply weakly supervised video anomaly detection called Robust
Temporal Feature Magnitude Learning (RTFM) to an end-to-end crime-scene anomaly
detection system from the surveillance cameras with the help of edge computing
technology. The system is tested directly on multiple Jetson edge devices
combined with TensorRT as the software developer kit from NVIDIA for system
performance enhancement. The experience of an AI-based system deployment on
various Jetson Edge devices with Docker technology is also provided. The
anomaly detection model yields competitive results compared to other
state-of-the-art (SOTA) algorithms on available datasets such as UCF-Crime and
UIT VNAnomaly. The approach system reaches 47.56 frames per second (FPS)
inference speed on a Jetson edge device with only 3.11 GB RAM usage total. We
also discover the promising Jetson device that the AI system achieves 15%
better performance than the previous version of Jetson devices while consuming
50% less energy power.
- Abstract(参考訳): 監視ビデオから異常な出来事を捉えることは、市民の安全と幸福を高める。
EdgeAI(EdgeコンピューティングベースのArtificial Intelligent )のアプリケーションは、セキュリティの厳しいレイテンシ要件を満たす。
本稿では、エッジコンピューティング技術を用いて、監視カメラから端から端までの犯罪現場の異常検出システムに、ロバスト時間特徴量学習(RTFM)と呼ばれる弱教師付きビデオ異常検出を適用した。
このシステムは、複数のJetsonエッジデバイスで直接テストされ、NVIDIAのソフトウェア開発キットであるTensorRTと組み合わせてシステムパフォーマンスを向上する。
さまざまなJetson Edgeデバイスに,AIベースのシステムデプロイメントとDockerテクノロジを併用したエクスペリエンスも提供されている。
異常検出モデルは、UCF-CrimeやUIT VNAnomalyのような利用可能なデータセット上の他の最先端(SOTA)アルゴリズムと比較して、競合結果が得られる。
アプローチシステムは、Jetsonエッジデバイス上の毎秒47.56フレーム(FPS)の推論速度に到達し、RAM使用量は3.11GBである。
また、aiシステムが前バージョンのjetsonデバイスよりも15%優れた性能を実現し、50%のエネルギーを消費する有望なjetsonデバイスも発見する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Benchmarking Deep Learning Models for Object Detection on Edge Computing Devices [0.0]
YOLOv8 (Nano, Small, Medium), EfficientDet Lite (Lite0, Lite1, Lite2), SSD (SSD MobileNet V1, SSDLite MobileDet) など,最先端のオブジェクト検出モデルの評価を行った。
これらのモデルをRaspberry Pi 3、4、5、TPUアクセラレーター、Jetson Orin Nanoといった一般的なエッジデバイスにデプロイし、エネルギー消費、推論時間、平均精度(mAP)といった重要なパフォーマンス指標を収集しました。
この結果から,SSD MobileNet V1などの低mAPモデルの方がエネルギー効率が高く,高速であることが示唆された。
論文 参考訳(メタデータ) (2024-09-25T10:56:49Z) - Arena: A Patch-of-Interest ViT Inference Acceleration System for Edge-Assisted Video Analytics [18.042752812489276]
視覚変換器(ViT)を用いたエッジ・ツー・エンドビデオ推論高速化システムを提案する。
その結果、Arenaは平均で1.58(時間)と1.82(時間)の推論速度を向上でき、それぞれ帯域幅の47%と31%しか消費していないことがわかった。
論文 参考訳(メタデータ) (2024-04-14T13:14:13Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - Benchmarking Edge Computing Devices for Grape Bunches and Trunks
Detection using Accelerated Object Detection Single Shot MultiBox Deep
Learning Models [2.1922186455344796]
この研究は、オブジェクト検出のための異なるプラットフォームのパフォーマンスをリアルタイムでベンチマークする。
著者らは、自然なVineデータセットを使用して、RetinaNet ResNet-50を微調整した。
論文 参考訳(メタデータ) (2022-11-21T17:02:33Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - Real-time HOG+SVM based object detection using SoC FPGA for a UHD video
stream [0.0]
本稿では、HOG(Histogram of Oriented Gradients)特徴抽出とSVM(Support Vector Machine)分類を用いた、よく知られた歩行者検出器のリアルタイム実装について述べる。
このシステムは、歩行者を単一のスケールで検出することができる。
論文 参考訳(メタデータ) (2022-04-22T10:29:21Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Accelerating Deep Learning Applications in Space [0.0]
拘束デバイス上でのCNNを用いた物体検出の性能について検討する。
我々は、Single Shot MultiBox Detector (SSD)とリージョンベースのFully Convolutional Network (R-FCN)について詳しく検討する。
性能は、推測時間、メモリ消費、精度で測定される。
論文 参考訳(メタデータ) (2020-07-21T21:06:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。