論文の概要: Moving Object Based Collision-Free Video Synopsis
- arxiv url: http://arxiv.org/abs/2401.02419v1
- Date: Sun, 17 Sep 2023 16:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 09:58:20.216321
- Title: Moving Object Based Collision-Free Video Synopsis
- Title(参考訳): 移動物体に基づく衝突のない映像合成
- Authors: Anton Jeran Ratnarajah, Sahani Goonetilleke, Dumindu Tissera, Kapilan
Balagopalan, Ranga Rodrigo
- Abstract要約: ビデオ合成は空間的・時間的冗長性を利用して短いビデオを生成する。
合成の各フレームを漸進的に縫合する手法を用いてリアルタイムアルゴリズムを提案する。
屋内と屋外の6つの一般的なテストビデオを用いた実験では、提案したビデオ合成アルゴリズムは既存の手法よりもフレーム削減率が高いことが示された。
- 参考スコア(独自算出の注目度): 1.55172825097051
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Video synopsis, summarizing a video to generate a shorter video by exploiting
the spatial and temporal redundancies, is important for surveillance and
archiving. Existing trajectory-based video synopsis algorithms will not able to
work in real time, because of the complexity due to the number of object tubes
that need to be included in the complex energy minimization algorithm. We
propose a real-time algorithm by using a method that incrementally stitches
each frame of the synopsis by extracting object frames from the user specified
number of tubes in the buffer in contrast to global energy-minimization based
systems. This also gives flexibility to the user to set the threshold of
maximum number of objects in the synopsis video according his or her tracking
ability and creates collision-free summarized videos which are visually
pleasing. Experiments with six common test videos, indoors and outdoors with
many moving objects, show that the proposed video synopsis algorithm produces
better frame reduction rates than existing approaches.
- Abstract(参考訳): ビデオ合成は、空間的・時間的冗長性を利用して短いビデオを生成するため、監視とアーカイブのために重要である。
既存の軌道に基づくビデオ合成アルゴリズムは、複雑なエネルギー最小化アルゴリズムに含める必要のある物体管の数による複雑さのため、リアルタイムでは動作しない。
本研究では,大域的なエネルギー最小化システムとは対照的に,バッファ内のユーザ指定管数からオブジェクトフレームを抽出することにより,シナプスの各フレームを漸進的に縫合する手法を用いてリアルタイムアルゴリズムを提案する。
これはまた、ユーザが自分の追跡能力に応じて、シナプスビデオの最大オブジェクト数の閾値を設定する柔軟性を与え、視覚的に喜ぶ衝突のない要約ビデオを生成する。
屋内および屋外の6つの一般的なテストビデオを用いた実験では,提案するビデオ合成アルゴリズムが,既存の手法よりも優れたフレーム削減率を示している。
関連論文リスト
- A Low-Computational Video Synopsis Framework with a Standard Dataset [0.0]
ビデオ合成は、監視ビデオの凝縮に有効な方法である。
ビデオ合成タスクの標準データセットの欠如は、異なるビデオ合成モデルの比較を妨げる。
本稿では,計算コストの低いFGSというビデオ合成モデルを提案する。
論文 参考訳(メタデータ) (2024-09-08T22:08:36Z) - Rethinking Image-to-Video Adaptation: An Object-centric Perspective [61.833533295978484]
本稿では,オブジェクト中心の視点から,画像から映像への適応戦略を提案する。
人間の知覚に触発されて、物体発見のプロキシタスクを画像-映像間移動学習に統合する。
論文 参考訳(メタデータ) (2024-07-09T13:58:10Z) - Spatio-temporal Prompting Network for Robust Video Feature Extraction [74.54597668310707]
フレームテンポラリ(Frametemporal)は、ビデオ理解の分野における大きな課題の1つだ。
最近のアプローチでは、トランスフォーマーベースの統合モジュールを活用して、時間的品質情報を得る。
N-Temporal Prompting Network (NNSTP) という,クリーンで統一されたフレームワークを提案する。
ネットワークバックボーン内の入力特徴を調整することで,映像特徴の抽出を効率的に行うことができる。
論文 参考訳(メタデータ) (2024-02-04T17:52:04Z) - DynPoint: Dynamic Neural Point For View Synthesis [45.44096876841621]
我々は、制約のないモノクロビデオのための新しいビューの迅速な合成を容易にするアルゴリズムであるDynPointを提案する。
DynPointは、情報集約を実現するために、隣接するフレーム間の明示的な3D対応を予測することに集中している。
本手法は,ビデオコンテンツの正規表現を学習することなく,長時間の動画処理において強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-29T12:55:53Z) - TL;DW? Summarizing Instructional Videos with Task Relevance &
Cross-Modal Saliency [133.75876535332003]
我々は,ビデオ要約の未探索領域である指導ビデオの要約に焦点をあてる。
既存のビデオ要約データセットは、手動のフレームレベルのアノテーションに依存している。
本稿では,文脈対応の時間的ビデオエンコーダとセグメントスコアリング変換器を組み合わせた指導ビデオ要約ネットワークを提案する。
論文 参考訳(メタデータ) (2022-08-14T04:07:40Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - A Generic Object Re-identification System for Short Videos [39.662850217144964]
オブジェクト検出モジュールにはTIFN(Temporal Information Fusion Network)が提案されている。
The Cross-Layer Pointwise Siamese Network (CPSN) is proposed to enhance the robustness of the appearance model。
実世界のショートビデオを含む2つの課題データセットは、ビデオオブジェクトの軌跡抽出とジェネリックオブジェクトの再同定のために構築されている。
論文 参考訳(メタデータ) (2021-02-10T05:45:09Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。