論文の概要: Boggart: Accelerating Retrospective Video Analytics via Model-Agnostic
Ingest Processing
- arxiv url: http://arxiv.org/abs/2106.15315v1
- Date: Mon, 21 Jun 2021 19:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 19:44:43.075528
- Title: Boggart: Accelerating Retrospective Video Analytics via Model-Agnostic
Ingest Processing
- Title(参考訳): boggart: モデルに依存しない取り込み処理によるレトロスペクティブビデオ分析の促進
- Authors: Neil Agarwal, Ravi Netravali
- Abstract要約: Boggartは、モデルに依存しない方法で摂取時のスピードアップを提供する、振り返りビデオ分析システムである。
我々の根底にある洞察は、従来のコンピュータビジョン(CV)アルゴリズムは、幅広いCNNで多様なクエリを高速化するために使用できる計算を行うことができるということである。
クエリ時に、Boggart氏はいくつかの新しいテクニックを使用して、ターゲットの精度を満たすのに必要な最小のCNN結果のサンプルを収集している。
- 参考スコア(独自算出の注目度): 5.076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Delivering fast responses to retrospective queries on video datasets is
difficult due to the large number of frames to consider and the high costs of
running convolutional neural networks (CNNs) on each one. A natural solution is
to perform a subset of the necessary computations ahead of time, as video is
ingested. However, existing ingest-time systems require knowledge of the
specific CNN that will be used in future queries -- a challenging requisite
given the evergrowing space of CNN architectures and training
datasets/methodologies.
This paper presents Boggart, a retrospective video analytics system that
delivers ingest-time speedups in a model-agnostic manner. Our underlying
insight is that traditional computer vision (CV) algorithms are capable of
performing computations that can be used to accelerate diverse queries with
wide-ranging CNNs. Building on this, at ingest-time, Boggart carefully employs
a variety of motion tracking algorithms to identify potential objects and their
trajectories across frames. Then, at query-time, Boggart uses several novel
techniques to collect the smallest sample of CNN results required to meet the
target accuracy: (1) a clustering strategy to efficiently unearth the
inevitable discrepancies between CV- and CNN-generated outputs, and (2) a set
of accuracy-preserving propagation techniques to safely extend sampled results
along each trajectory. Across many videos, CNNs, and queries Boggart
consistently meets accuracy targets while using CNNs sparingly (on 3-54% of
frames).
- Abstract(参考訳): ビデオデータセット上での振り返りクエリへの迅速な応答は、考慮すべきフレームの数が多く、それぞれに畳み込みニューラルネットワーク(convolutional neural network:cnns)を実行するコストが高いため、難しい。
自然な解決策は、ビデオが取り込まれる前に必要な計算のサブセットを実行することである。
しかし、既存のIngest-timeシステムは、将来のクエリで使用される特定のCNNの知識を必要とする。
本稿では,モデルに依存しない方法で摂食速度を向上するリフレクションビデオ解析システムBoggartを提案する。
我々の根底にある洞察は、従来のコンピュータビジョン(CV)アルゴリズムは、幅広いCNNで多様なクエリを高速化するために使用できる計算を行うことができるということである。
そのためにboggartは、さまざまなモーショントラッキングアルゴリズムを慎重に採用して、潜在的なオブジェクトとそのフレーム間の軌跡を識別している。
そこでBogart氏は,クエリ時に,目的とする精度を満たすために必要な最小のCNN結果のサンプル収集に,(1)CV-とCNN生成出力間の不一致を効率的に検出するクラスタリング戦略,(2)各トラジェクトリに沿って標本化結果を安全に拡張するための精度保存伝搬手法のセット,という,いくつかの新しい手法を用いた。
多くのビデオ、CNN、クエリにわたって、Boggartは、CNNを使用して(フレームの3〜54%で)常に精度の目標を満たしている。
関連論文リスト
- SparseTem: Boosting the Efficiency of CNN-Based Video Encoders by Exploiting Temporal Continuity [15.872209884833977]
本稿では,メモリオーバーヘッドを削減するためのメモリ効率スケジューリング手法と,精度の劣化を最小限に抑えるためのオンライン調整機構を提案する。
SparseTemは効率の良いDetでは1.79x、CRNNでは4.72xの高速化を実現している。
論文 参考訳(メタデータ) (2024-10-28T07:13:25Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - A Novel Hand Gesture Detection and Recognition system based on
ensemble-based Convolutional Neural Network [3.5665681694253903]
コンピュータビジョンとパターン認識コミュニティでは,手の部分検出が課題となっている。
畳み込みニューラルネットワーク(CNN)アーキテクチャのようなディープラーニングアルゴリズムは、分類タスクにおいて非常に一般的な選択肢となっている。
本稿では,CNNに基づくアプローチのアンサンブルを用いて,予測時の高分散や過度な問題,予測誤差などの問題を克服する。
論文 参考訳(メタデータ) (2022-02-25T06:46:58Z) - Event and Activity Recognition in Video Surveillance for Cyber-Physical
Systems [0.0]
長期動作パターンは、イベントを認識するタスクにおいて、それ自体が重要な役割を果たす。
本研究では,イベント認識作業において,長期動作パターンのみが重要な役割を担っていることを示す。
時間的特徴のみをハイブリッド畳み込みニューラルネットワーク(CNN)+リカレントニューラルネットワーク(RNN)アーキテクチャで活用する。
論文 参考訳(メタデータ) (2021-11-03T08:30:38Z) - Application of 2-D Convolutional Neural Networks for Damage Detection in
Steel Frame Structures [0.0]
本稿では,2次元畳み込みニューラルネットワーク(2次元CNN)を特徴抽出と分類段階の両方に応用する。
本手法では、深度ではなく、光ったCNNのネットワークを使用し、生の加速度信号を入力とする。
論文 参考訳(メタデータ) (2021-10-29T16:29:31Z) - An Acceleration Method Based on Deep Learning and Multilinear Feature
Space [0.0]
本稿では,大規模CNNアーキテクチャからの学習を伝達するために,Multilinear Feature Space (MFS)法に基づく代替手法を提案する。
提案手法はCNNを用いて特徴マップを生成するが,複雑性低減手法として機能しない。
AMFCと呼ばれる本手法では,事前学習したCNNからの移動学習を用いて,新しいサンプル画像の分類時間を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-16T23:49:12Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Continual 3D Convolutional Neural Networks for Real-time Processing of
Videos [93.73198973454944]
連続3次元コンテンポラルニューラルネットワーク(Co3D CNN)について紹介する。
Co3D CNNはクリップ・バイ・クリップではなく、フレーム・バイ・フレームで動画を処理する。
本研究では,既存の映像認識モデルの重みを初期化したCo3D CNNを用いて,フレームワイズ計算における浮動小数点演算を10.0-12.4倍削減し,Kinetics-400の精度を2.3-3.8倍に向上したことを示す。
論文 参考訳(メタデータ) (2021-05-31T18:30:52Z) - MoViNets: Mobile Video Networks for Efficient Video Recognition [52.49314494202433]
3D畳み込みニューラルネットワーク(CNN)は、ビデオ認識では正確だが、大きな計算とメモリ予算を必要とする。
本稿では,3次元CNNのピークメモリ使用量を大幅に削減しつつ,計算効率を向上させる3段階の手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:06:38Z) - Dense Interaction Learning for Video-based Person Re-identification [75.03200492219003]
ビデオベースの人物再ID問題に取り組むために,Dense Interaction Learning (DenseIL) というハイブリッドフレームワークを提案する。
DenseILにはCNNエンコーダとDense Interaction (DI)デコーダが含まれている。
当社の実験は、複数の標準ビデオベースの再IDデータセットにおけるすべての最先端の手法を一貫して大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-16T12:22:08Z) - Cascaded Deep Video Deblurring Using Temporal Sharpness Prior [88.98348546566675]
提案アルゴリズムは主に,中間潜水フレームと潜水フレームの復元ステップから光フローを推定する。
まず、中間潜伏フレームから光フローを推定し、推定した光フローに基づいて潜伏フレームを復元する深部CNNモデルを開発する。
ビデオデブロアリングのドメイン知識を探索することで、深層CNNモデルをよりコンパクトで効率的なものにすることができることを示す。
論文 参考訳(メタデータ) (2020-04-06T09:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。