論文の概要: Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems
- arxiv url: http://arxiv.org/abs/2312.08213v2
- Date: Thu, 8 Feb 2024 15:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 18:47:41.862809
- Title: Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems
- Title(参考訳): 監視ビデオシステムにおけるイベントベース特徴検出と圧縮の高速化
- Authors: Andrew C. Freeman, Ketan Mayer-Patel, Montek Singh
- Abstract要約: スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
- 参考スコア(独自算出の注目度): 1.5390526524075634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The strong temporal consistency of surveillance video enables compelling
compression performance with traditional methods, but downstream vision
applications operate on decoded image frames with a high data rate. Since it is
not straightforward for applications to extract information on temporal
redundancy from the compressed video representations, we propose a novel system
which conveys temporal redundancy within a sparse decompressed representation.
We leverage a video representation framework called ADDER to transcode framed
videos to sparse, asynchronous intensity samples. We introduce mechanisms for
content adaptation, lossy compression, and asynchronous forms of classical
vision algorithms. We evaluate our system on the VIRAT surveillance video
dataset, and we show a median 43.7% speed improvement in FAST feature detection
compared to OpenCV. We run the same algorithm as OpenCV, but only process
pixels that receive new asynchronous events, rather than process every pixel in
an image frame. Our work paves the way for upcoming neuromorphic sensors and is
amenable to future applications with spiking neural networks.
- Abstract(参考訳): 監視ビデオの時間的一貫性が強いため、従来の方法では圧縮性能が向上するが、ダウンストリームビジョンアプリケーションは高いデータレートでデコードされた画像フレームで動作する。
圧縮された映像表現から時間的冗長性に関する情報を抽出するのは簡単ではないため、スパース圧縮された表現内で時間的冗長性を伝える新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
本稿では、古典視覚アルゴリズムのコンテンツ適応、損失圧縮、非同期形式のメカニズムを紹介する。
VIRAT監視ビデオデータセットを用いて本システムの評価を行い,OpenCVと比較してFAST特徴の検出速度が43.7%向上したことを示す。
OpenCVと同じアルゴリズムを実行していますが、画像フレーム内のすべてのピクセルを処理するのではなく、新しい非同期イベントを受け取るピクセルのみを処理します。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
関連論文リスト
- STAC: Leveraging Spatio-Temporal Data Associations For Efficient
Cross-Camera Streaming and Analytics [0.0]
本稿では,制約されたネットワーク環境下でのリアルタイム解析と推論を実現する,効率的なクロスカメラ監視システムを提案する。
ストリーム特性に対するフレームフィルタリングと最先端圧縮をSTACと統合する。
本研究では,このデータセットを用いてSTAの性能評価を行い,完全性評価のための精度指標と推論率を測定した。
論文 参考訳(メタデータ) (2024-01-27T04:02:52Z) - VNVC: A Versatile Neural Video Coding Framework for Efficient
Human-Machine Vision [59.632286735304156]
コード化された表現をピクセルに復号することなく直接拡張・解析することがより効率的である。
再構成と直接拡張/分析の両方をサポートするために,コンパクト表現の学習を目標とする汎用型ニューラルビデオ符号化(VNVC)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T03:04:57Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - An Asynchronous Intensity Representation for Framed and Event Video
Sources [2.9097303137825046]
フレームデータと非フレームデータの両方に強度表現を導入する。
我々の表現は、強度の精度を高め、画素あたりのサンプル数を大幅に削減できることを示す。
本稿では,イベントカメラのリアルタイムインテンシティに基づくアプリケーション構築に必要な計算効率と時間的粒度について論じる。
論文 参考訳(メタデータ) (2023-01-20T19:46:23Z) - FFNeRV: Flow-Guided Frame-Wise Neural Representations for Videos [5.958701846880935]
ビデオ中のフレーム間の時間的冗長性を利用するために,フロー情報をフレームワイズ表現に組み込む新しい手法であるFFNeRVを提案する。
モデル圧縮技術により、FFNeRVは広く使われている標準ビデオコーデック(H.264とHEVC)より優れ、最先端のビデオ圧縮アルゴリズムと同等に動作する。
論文 参考訳(メタデータ) (2022-12-23T12:51:42Z) - Exploring Long- and Short-Range Temporal Information for Learned Video
Compression [54.91301930491466]
圧縮性能を高めるために,映像コンテンツの特徴を活かし,時間的情報を探究することに注力する。
本稿では,画像群(GOP)内で画像の推測中に連続的に更新できる時間前処理を提案する。
この場合、時間的事前は、現在のGOP内のすべてのデコードされた画像の貴重な時間的情報を含む。
本稿では,マルチスケール補償を実現する階層構造を設計する。
論文 参考訳(メタデータ) (2022-08-07T15:57:18Z) - Conditional Entropy Coding for Efficient Video Compression [82.35389813794372]
本稿では,フレーム間の条件エントロピーをモデル化することのみに焦点を当てた,非常にシンプルで効率的なビデオ圧縮フレームワークを提案する。
まず、画像遅延符号間のエントロピーをモデル化する単純なアーキテクチャが、他のニューラルビデオ圧縮やビデオコーデックと同等の競争力を持つことを示す。
次に、このアーキテクチャの上に新しい内部学習拡張を提案し、復号速度を抑えることなく10%の節約を実現した。
論文 参考訳(メタデータ) (2020-08-20T20:01:59Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z) - End-to-End Learning for Video Frame Compression with Self-Attention [25.23586503813838]
ビデオフレームを圧縮するエンド・ツー・エンドの学習システムを提案する。
我々のシステムはフレームの深い埋め込みを学習し、その差分を潜時空間でエンコードする。
実験の結果,提案システムは高い圧縮率と高客観的な視覚的品質を実現することがわかった。
論文 参考訳(メタデータ) (2020-04-20T12:11:08Z) - An Emerging Coding Paradigm VCM: A Scalable Coding Approach Beyond
Feature and Signal [99.49099501559652]
Video Coding for Machine (VCM)は、視覚的特徴圧縮と古典的なビデオ符号化のギャップを埋めることを目的としている。
我々は,学習した動きパターンのガイダンスを用いて,映像フレームを再構成するために条件付き深層生成ネットワークを用いる。
予測モデルを介してスパース動作パターンを抽出することを学ぶことにより、特徴表現をエレガントに活用し、符号化されたフレームの外観を生成する。
論文 参考訳(メタデータ) (2020-01-09T14:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。