論文の概要: Manipulating a Tetris-Inspired 3D Video Representation
- arxiv url: http://arxiv.org/abs/2407.08885v1
- Date: Thu, 11 Jul 2024 22:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 01:26:19.081557
- Title: Manipulating a Tetris-Inspired 3D Video Representation
- Title(参考訳): テトリスにインスパイアされた3Dビデオ表現の操作
- Authors: Mihir Godbole,
- Abstract要約: ビデオアルゴリズムは、ビデオ内の活動を保存する方法でビデオ圧縮を実行する技術である。
異なるアプリケーションに適した異なるオブジェクト時間データ表現について論じる。
本稿では,ビデオ合成の問題を解決するために,パッキングアルゴリズムの適用について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video Synopsis is a technique that performs video compression in a way that preserves the activity in the video. This technique is particularly useful in surveillance and monitoring applications. Although it is still a nascent field of research, there have been several approaches proposed over the last two decades varying with the application, optimization type, nature of data feed, etc. The primary data required for these algorithms arises from some sort of object tracking method. In this paper, we discuss different spatio-temporal data representations suitable for different applications. We also present a formal definition for the video synopsis algorithm. We further discuss the assumptions and modifications to this definition required for a simpler version of the problem. We explore the application of a packing algorithm to solve the problem of video synopsis. Since the nature of the data is three dimensional, we consider 3D packing problems in the discussion. This paper also provides an extensive literature review of different video synopsis methods and packing problems. Lastly, we examine the different applications of this algorithm and how the different data representations discussed earlier can make the problem simpler. We also discuss the future directions of research that can be explored following this discussion.
- Abstract(参考訳): Video Synopsisは、ビデオ内のアクティビティを保存する方法でビデオ圧縮を実行するテクニックである。
この技術は特に監視および監視アプリケーションに有用である。
まだ初期段階の研究分野であるが、アプリケーション、最適化タイプ、データフィードの性質などによって、過去20年間にいくつかのアプローチが提案されてきた。
これらのアルゴリズムに必要な主要なデータは、ある種のオブジェクト追跡法から生じる。
本稿では,異なるアプリケーションに適した時空間データ表現について論じる。
また,ビデオ合成アルゴリズムの形式的定義も提示する。
さらに、この問題のより単純なバージョンに必要な仮定と修正について論じる。
本稿では,ビデオ合成の問題を解決するために,パッキングアルゴリズムの適用について検討する。
データの性質は3次元であるため,議論では3次元パッキング問題を考える。
本稿では,様々なビデオ合成手法とパッキング問題について,広範な文献レビューを行う。
最後に、このアルゴリズムの異なる応用と、先述した異なるデータ表現がどのようにしてこの問題を単純化するかを考察する。
また,本研究の今後の方向性についても論じる。
関連論文リスト
- Splatter a Video: Video Gaussian Representation for Versatile Processing [48.9887736125712]
ビデオ表現は、トラッキング、深度予測、セグメンテーション、ビュー合成、編集など、さまざまなダウンストリームタスクに不可欠である。
我々は,映像を3Dガウスに埋め込む,新しい3D表現-ビデオガウス表現を導入する。
トラッキング、一貫したビデオ深度と特徴の洗練、動きと外観の編集、立体映像生成など、多数のビデオ処理タスクで有効であることが証明されている。
論文 参考訳(メタデータ) (2024-06-19T22:20:03Z) - Video Timeline Modeling For News Story Understanding [123.03394373132353]
我々は,ビデオタイムラインモデリングという新たな問題を提示した。
我々の目的は、特定の話題に関連する一連のビデオからビデオ関連タイムラインを作成し、話されているストーリーの内容や構造を理解しやすくすることである。
この問題は、例えばニュースストーリーの要約など、様々な現実世界のアプリケーションにおいて大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-09-23T18:24:15Z) - Semi-supervised 3D Video Information Retrieval with Deep Neural Network
and Bi-directional Dynamic-time Warping Algorithm [14.39527406033429]
提案アルゴリズムは,大規模なビデオデータセットを処理し,最も関連性の高い映像を検索ビデオクリップに検索するように設計されている。
候補と調査ビデオの両方を一連のクリップに分割し、各クリップをオートエンコーダ支援のディープニューラルネットワークを用いて表現ベクトルに変換する。
次に, 双方向動的時間ワープ法を用いて, 埋め込みベクトル列間の類似度を計算した。
論文 参考訳(メタデータ) (2023-09-03T03:10:18Z) - Video Segmentation Learning Using Cascade Residual Convolutional Neural
Network [0.0]
本研究では,残差情報を前景検出学習プロセスに組み込んだ新しい深層学習ビデオセグメンテーション手法を提案する。
Change Detection 2014とPetrobrasのプライベートデータセットであるPetrobrasROUTESで実施された実験は、提案手法の有効性を支持している。
論文 参考訳(メタデータ) (2022-12-20T16:56:54Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Understanding 3D Object Articulation in Internet Videos [16.457168338946566]
そこで本研究では,通常の映像から3次元平面音声の検出と特徴付けについて検討する。
人間にとって簡単なように思えるが、この問題はコンピュータに多くの課題をもたらす。
このシステムは,ビデオと3Dスキャンデータセットの組み合わせでトレーニング可能であることを示す。
論文 参考訳(メタデータ) (2022-03-30T17:59:46Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。