論文の概要: STAC: Leveraging Spatio-Temporal Data Associations For Efficient
Cross-Camera Streaming and Analytics
- arxiv url: http://arxiv.org/abs/2401.15288v1
- Date: Sat, 27 Jan 2024 04:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 19:00:40.199512
- Title: STAC: Leveraging Spatio-Temporal Data Associations For Efficient
Cross-Camera Streaming and Analytics
- Title(参考訳): stac: 時空間データアソシエーションを活用した効率的なクロスカメラストリーミングと分析
- Authors: Volodymyr Vakhniuk, Ayush Sarkar, Ragini Gupta
- Abstract要約: 本稿では,制約されたネットワーク環境下でのリアルタイム解析と推論を実現する,効率的なクロスカメラ監視システムを提案する。
ストリーム特性に対するフレームフィルタリングと最先端圧縮をSTACと統合する。
本研究では,このデータセットを用いてSTAの性能評価を行い,完全性評価のための精度指標と推論率を測定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an efficient cross-cameras surveillance system called,STAC, that
leverages spatio-temporal associations between multiple cameras to provide
real-time analytics and inference under constrained network environments. STAC
is built using the proposed omni-scale feature learning people reidentification
(reid) algorithm that allows accurate detection, tracking and re-identification
of people across cameras using the spatio-temporal characteristics of video
frames. We integrate STAC with frame filtering and state-of-the-art compression
for streaming technique (that is, ffmpeg libx264 codec) to remove redundant
information from cross-camera frames. This helps in optimizing the cost of
video transmission as well as compute/processing, while maintaining high
accuracy for real-time query inference. The introduction of AICity Challenge
2023 Data [1] by NVIDIA has allowed exploration of systems utilizing
multi-camera people tracking algorithms. We evaluate the performance of STAC
using this dataset to measure the accuracy metrics and inference rate for reid.
Additionally, we quantify the reduction in video streams achieved through frame
filtering and compression using FFmpeg compared to the raw camera streams. For
completeness, we make available our repository to reproduce the results,
available at https://github.com/VolodymyrVakhniuk/CS444_Final_Project.
- Abstract(参考訳): 本稿では,複数のカメラ間の時空間的関係を利用して,制約されたネットワーク環境下でのリアルタイム分析と推論を実現する,効率的なクロスカメラ監視システムSTACを提案する。
STACは、ビデオフレームの時空間特性を用いて、カメラ間での人々の正確な検出、追跡、再識別を可能にする、オールニスケールの特徴学習者再識別(reid)アルゴリズムを用いて構築されている。
stacをフレームフィルタリングと最先端圧縮を統合してストリーミング技術(ffmpeg libx264コーデック)を行い、クロスカメラフレームから冗長な情報を除去する。
これは、リアルタイムクエリ推論の精度を維持しながら、ビデオ伝送のコストと計算/処理の最適化に役立つ。
NVIDIAによるAICity Challenge 2023 Data [1]の導入により、マルチカメラの人物追跡アルゴリズムを利用したシステムの探索が可能になった。
我々は,このデータセットを用いてSTACの性能を評価し,レードの精度測定値と推論率を測定した。
また,フレームフィルタリングによる映像ストリームの削減とffmpegによる圧縮を生のカメラストリームと比較して定量化する。
完全性のため、その結果を再現するリポジトリをhttps://github.com/VolodymyrVakhniuk/CS444_Final_Projectで公開しています。
関連論文リスト
- Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems [1.5390526524075634]
スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
論文 参考訳(メタデータ) (2023-12-13T15:30:29Z) - Learn to Compress (LtC): Efficient Learning-based Streaming Video
Analytics [3.2872586139884623]
LtCは、ビデオソースと分析サーバの協調フレームワークで、分析パイプライン内のビデオストリームの削減を効率的に学習する。
LtCは28~35%の帯域幅を使用でき、最近公開されたアートストリーミングフレームワークと比較して最大45%のレスポンス遅延がある。
論文 参考訳(メタデータ) (2023-07-22T21:36:03Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - GPU-accelerated SIFT-aided source identification of stabilized videos [63.084540168532065]
我々は、安定化フレームインバージョンフレームワークにおけるグラフィクス処理ユニット(GPU)の並列化機能を利用する。
我々はSIFT機能を活用することを提案する。
カメラのモーメントを推定し 1%の確率で 時間セグメントを識別します
実験により,提案手法の有効性を確認し,必要な計算時間を短縮し,情報源の同定精度を向上させる。
論文 参考訳(メタデータ) (2022-07-29T07:01:31Z) - FrameHopper: Selective Processing of Video Frames in Detection-driven
Real-Time Video Analytics [2.5119455331413376]
検出駆動リアルタイムビデオ分析では、ビデオフレームに含まれるオブジェクトを連続的に検出する必要がある。
これらの検出器をリソース制約されたエッジデバイスの各フレームで実行することは、計算集約的である。
本稿では,これらのスキップ長を決定するために,オフライン強化学習(RL)に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:05:57Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Personal Privacy Protection via Irrelevant Faces Tracking and Pixelation
in Video Live Streaming [61.145467627057194]
我々は、ビデオライブストリーミングにおいて、自動プライバシーフィルタリングを生成するためのFace Pixelationと呼ばれる新しい方法を開発した。
無関係な人々の顔の高速かつ正確なピクセル化のために、FPVLSは2つのコアステージのフレームツービデオ構造で構成されています。
収集したビデオライブストリーミングデータセットにおいて、FPVLSは満足度の高い精度、リアルタイム効率を取得し、オーバーピクセル問題を含む。
論文 参考訳(メタデータ) (2021-01-04T16:18:26Z) - Temporal Context Aggregation for Video Retrieval with Contrastive
Learning [81.12514007044456]
フレームレベルの特徴間の時間的長距離情報を組み込んだビデオ表現学習フレームワークTCAを提案する。
提案手法は,映像レベルの特徴を持つ最先端の手法に対して,FIVR-200Kでは17% mAPの大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2020-08-04T05:24:20Z) - Single Shot Video Object Detector [215.06904478667337]
Single Shot Video Object Detector (SSVD)は、新しいアーキテクチャであり、ビデオ内のオブジェクト検出のための1段階の検出器に機能集約を新規に統合する。
448の448ドルの入力で、SSVDはImageNet VIDデータセットで79.2%のmAPを達成した。
論文 参考訳(メタデータ) (2020-07-07T15:36:26Z) - CONVINCE: Collaborative Cross-Camera Video Analytics at the Edge [1.5469452301122173]
本稿では,カメラ間の協調的なビデオ分析パイプラインを実現するため,カメラを集合体として見るための新しいアプローチであるCONVINCEを紹介する。
以上の結果から, CONVINCEは記録フレームの約25%を送信し, オブジェクト識別精度が$sim$91%であることを示す。
論文 参考訳(メタデータ) (2020-02-05T23:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。