論文の概要: Video Monitoring Queries
- arxiv url: http://arxiv.org/abs/2002.10537v1
- Date: Mon, 24 Feb 2020 20:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:41:37.319789
- Title: Video Monitoring Queries
- Title(参考訳): ビデオモニタリングクエリ
- Authors: Nick Koudas, Raymond Li, Ioannis Xarchakos
- Abstract要約: ビデオストリーム上での対話型宣言型クエリ処理の問題について検討する。
特定のタイプのオブジェクトを含むクエリを高速化するために、近似フィルタのセットを導入します。
フィルタは、クエリ述語が真実であれば素早く評価でき、フレームのさらなる分析を進めることができる。
- 参考スコア(独自算出の注目度): 16.7214343633499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in video processing utilizing deep learning primitives
achieved breakthroughs in fundamental problems in video analysis such as frame
classification and object detection enabling an array of new applications.
In this paper we study the problem of interactive declarative query
processing on video streams. In particular we introduce a set of approximate
filters to speed up queries that involve objects of specific type (e.g., cars,
trucks, etc.) on video frames with associated spatial relationships among them
(e.g., car left of truck). The resulting filters are able to assess quickly if
the query predicates are true to proceed with further analysis of the frame or
otherwise not consider the frame further avoiding costly object detection
operations.
We propose two classes of filters $IC$ and $OD$, that adapt principles from
deep image classification and object detection. The filters utilize extensible
deep neural architectures and are easy to deploy and utilize. In addition, we
propose statistical query processing techniques to process aggregate queries
involving objects with spatial constraints on video streams and demonstrate
experimentally the resulting increased accuracy on the resulting aggregate
estimation.
Combined these techniques constitute a robust set of video monitoring query
processing techniques. We demonstrate that the application of the techniques
proposed in conjunction with declarative queries on video streams can
dramatically increase the frame processing rate and speed up query processing
by at least two orders of magnitude. We present the results of a thorough
experimental study utilizing benchmark video data sets at scale demonstrating
the performance benefits and the practical relevance of our proposals.
- Abstract(参考訳): 近年の深層学習プリミティブを利用した映像処理の進歩は、フレーム分類やオブジェクト検出などのビデオ解析の基本的問題において画期的な成果を上げた。
本稿では,ビデオストリームにおける対話型宣言型クエリ処理の問題について検討する。
特に、特定のタイプのオブジェクト(例えば、車、トラックなど)をビデオフレーム上で関連付けられた空間的関係(例えば、トラックの左車)を含むクエリを高速化するための近似フィルタのセットを導入する。
結果のフィルタは、クエリ述語が真である場合、フレームのさらなる分析を進めることができ、そうでなければ、コストのかかるオブジェクト検出操作を避けるためにフレームをさらに考慮しない。
我々は、深層画像分類とオブジェクト検出の原則に適応するフィルタのクラスを、IC$とOD$の2つ提案する。
フィルタは拡張可能なディープニューラルアーキテクチャを使用し、デプロイや利用が容易である。
さらに,ビデオストリームに空間制約のあるオブジェクトを含む集約クエリを処理するための統計的クエリ処理手法を提案し,結果の集計推定精度を実験的に高めていることを示す。
これらのテクニックを組み合わせることで、ビデオ監視クエリ処理の堅牢なセットを構成する。
ビデオストリーム上での宣言的クエリと組み合わせて提案する手法の適用により,フレーム処理速度が劇的に向上し,クエリ処理が少なくとも2桁高速化できることを実証する。
本稿では,ベンチマークビデオデータセットを大規模に活用し,パフォーマンスのメリットと提案の実践的妥当性を実証する実験結果について述べる。
関連論文リスト
- GQE: Generalized Query Expansion for Enhanced Text-Video Retrieval [56.610806615527885]
本稿では,テキストとビデオ間の固有情報不均衡に対処するため,新しいデータ中心型アプローチであるGeneralized Query Expansion (GQE)を提案する。
ビデオをショートクリップにアダプティブに分割し、ゼロショットキャプションを採用することで、GQEはトレーニングデータセットを総合的なシーン記述で強化する。
GQEは、MSR-VTT、MSVD、SMDC、VATEXなど、いくつかのベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-14T01:24:09Z) - Practical Video Object Detection via Feature Selection and Aggregation [18.15061460125668]
ビデオオブジェクト検出(VOD)は、オブジェクトの外観における高いフレーム間変動と、いくつかのフレームにおける多様な劣化を懸念する必要がある。
現代のアグリゲーション法のほとんどは、高い計算コストに苦しむ2段階検出器用に調整されている。
この研究は、特徴選択と集約の非常に単純だが強力な戦略を考案し、限界計算コストでかなりの精度を得る。
論文 参考訳(メタデータ) (2024-07-29T02:12:11Z) - Temporal Saliency Query Network for Efficient Video Recognition [82.52760040577864]
ビデオ認識は、インターネットやモバイルデバイス上でのマルチメディアデータの爆発的な成長に関するホットスポット研究のトピックである。
既存の方法の多くは、クラス固有のサリエンシスコアを意識せずに、サリエントフレームを選択する。
そこで我々は,Saliency Query (TSQ) 機構を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:23:34Z) - FrameHopper: Selective Processing of Video Frames in Detection-driven
Real-Time Video Analytics [2.5119455331413376]
検出駆動リアルタイムビデオ分析では、ビデオフレームに含まれるオブジェクトを連続的に検出する必要がある。
これらの検出器をリソース制約されたエッジデバイスの各フレームで実行することは、計算集約的である。
本稿では,これらのスキップ長を決定するために,オフライン強化学習(RL)に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:05:57Z) - Temporal Query Networks for Fine-grained Video Understanding [88.9877174286279]
我々はこれをクエリ応答機構にキャストし、各クエリが特定の質問に対処し、独自の応答ラベルセットを持つ。
本手法は,細粒度動作分類のためのファインガイムおよびダイビング48ベンチマークを広範囲に評価し,rgb機能のみを用いて最先端の動作分類を克服した。
論文 参考訳(メタデータ) (2021-04-19T17:58:48Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Robust and efficient post-processing for video object detection [9.669942356088377]
この研究は、従来の後処理メソッドの制限を克服する、新しい後処理パイプラインを導入している。
本手法は,特に高速移動物体に関する最先端の映像検出器の結果を改善する。
そして、YOLOのような効率的な静止画像検出器に適用することで、より計算集約的な検出器に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-09-23T10:47:24Z) - Temporal Context Aggregation for Video Retrieval with Contrastive
Learning [81.12514007044456]
フレームレベルの特徴間の時間的長距離情報を組み込んだビデオ表現学習フレームワークTCAを提案する。
提案手法は,映像レベルの特徴を持つ最先端の手法に対して,FIVR-200Kでは17% mAPの大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2020-08-04T05:24:20Z) - Evaluating Temporal Queries Over Video Feeds [25.04363138106074]
ビデオフィードにおけるオブジェクトとその共起に関する時間的クエリは、法執行機関からセキュリティ、安全に至るまで、多くのアプリケーションにとって関心がある。
本稿では,オブジェクト検出/追跡,中間データ生成,クエリ評価という3つのレイヤからなるアーキテクチャを提案する。
中間データ生成層における全ての検出対象を整理するために,MFSとSSGという2つの手法を提案する。
また、SSGに対して入力フレームを処理し、クエリ評価とは無関係なオブジェクトやフレームを効率よくプーンするState Traversal (ST)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-03-02T14:55:57Z) - Convolutional Hierarchical Attention Network for Query-Focused Video
Summarization [74.48782934264094]
本稿では、ユーザのクエリと長いビデオを入力として取り込む、クエリ中心のビデオ要約の課題に対処する。
本稿では,特徴符号化ネットワークとクエリ関連計算モジュールの2つの部分からなる畳み込み階層型注意ネットワーク(CHAN)を提案する。
符号化ネットワークでは,局所的な自己認識機構と問合せ対応のグローバルアテンション機構を備えた畳み込みネットワークを用いて,各ショットの視覚情報を学習する。
論文 参考訳(メタデータ) (2020-01-31T04:30:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。