論文の概要: Bitstream-Corrupted Video Recovery: A Novel Benchmark Dataset and Method
- arxiv url: http://arxiv.org/abs/2309.13890v1
- Date: Mon, 25 Sep 2023 06:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 16:50:29.460678
- Title: Bitstream-Corrupted Video Recovery: A Novel Benchmark Dataset and Method
- Title(参考訳): Bitstream-Corruptedビデオリカバリ:新しいベンチマークデータセットと方法
- Authors: Tianyi Liu and Kejun Wu and Yi Wang and Wenyang Liu and Kim-Hui Yap
and Lap-Pui Chau
- Abstract要約: bitstream-corrupted video (BSCV)ベンチマークは、28,000以上のビデオクリップを備えた最初のベンチマークデータセットである。
BSCVは,1)ビデオビットストリームのための3パラメータ汚職モデル,2)リッチなエラーパターン,複数の汚職レベル,フレキシブルなデータセットブランチを含む大規模データセット,3)ベンチマークとして機能するビデオリカバリフレームワークのプラグイン・アンド・プレイモジュールの集合である。
我々は,BSCVデータセット上での最先端ビデオ塗装手法の評価を行い,既存のアプローチの限界と,ビットストリーム崩壊ビデオ回復問題の解決におけるフレームワークの利点を実証した。
- 参考スコア(独自算出の注目度): 24.986639795808564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The past decade has witnessed great strides in video recovery by specialist
technologies, like video inpainting, completion, and error concealment.
However, they typically simulate the missing content by manual-designed error
masks, thus failing to fill in the realistic video loss in video communication
(e.g., telepresence, live streaming, and internet video) and multimedia
forensics. To address this, we introduce the bitstream-corrupted video (BSCV)
benchmark, the first benchmark dataset with more than 28,000 video clips, which
can be used for bitstream-corrupted video recovery in the real world. The BSCV
is a collection of 1) a proposed three-parameter corruption model for video
bitstream, 2) a large-scale dataset containing rich error patterns, multiple
corruption levels, and flexible dataset branches, and 3) a plug-and-play module
in video recovery framework that serves as a benchmark. We evaluate
state-of-the-art video inpainting methods on the BSCV dataset, demonstrating
existing approaches' limitations and our framework's advantages in solving the
bitstream-corrupted video recovery problem. The benchmark and dataset are
released at https://github.com/LIUTIGHE/BSCV-Dataset.
- Abstract(参考訳): 過去10年間、ビデオインペインティング、コンプリート、エラー隠蔽といった専門技術によって、ビデオのリカバリは大きな進歩を遂げてきた。
しかし、通常は手動設計のエラーマスクによって不足したコンテンツをシミュレートし、ビデオ通信(テレプレゼンス、ライブストリーミング、インターネットビデオなど)やマルチメディアの法医学における現実的なビデオ損失を補うことができない。
そこで本研究では,ビットストリーム崩壊ビデオ(BSCV)ベンチマークを導入する。このベンチマークは,28,000本以上のビデオクリップを備えた最初のベンチマークデータセットであり,実世界ではビットストリーム崩壊ビデオリカバリに使用できる。
BSCVはコレクションです
1)ビデオビットストリームのための3パラメータ汚損モデルの提案
2)豊富なエラーパターン、複数の汚職レベル、柔軟なデータセットブランチを含む大規模データセット。
3) ビデオリカバリフレームワークのプラグインモジュールで,ベンチマークとして機能する。
我々は,BSCVデータセット上の最先端ビデオ塗装手法を評価し,既存のアプローチの限界と,ビットストリームの破損したビデオ復元問題の解決におけるフレームワークの利点を実証した。
ベンチマークとデータセットはhttps://github.com/LIUTIGHE/BSCV-Datasetで公開されている。
関連論文リスト
- Buffer Anytime: Zero-Shot Video Depth and Normal from Image Priors [54.8852848659663]
Buffer Anytimeは、ビデオから深さと正規マップ(幾何バッファと呼ばれる)を推定するためのフレームワークです。
時間的整合性制約を持つ単一画像の先行値を活用することによって,高品質なビデオバッファ推定を実証する。
論文 参考訳(メタデータ) (2024-11-26T09:28:32Z) - BVI-CR: A Multi-View Human Dataset for Volumetric Video Compression [14.109939177281069]
BVI-CRは18のマルチビューRGB-Dキャプチャとそれに対応するテクスチャ化された多角形メッシュを含んでいる。
各ビデオシーケンスは、30FPSで10~15秒間の1080p解像度で10ビューを含む。
その結果、ボリュームビデオ圧縮におけるニューラル表現に基づく手法の大きな可能性を示した。
論文 参考訳(メタデータ) (2024-11-17T23:22:48Z) - GRACE: Loss-Resilient Real-Time Video through Neural Codecs [31.006987868475683]
リアルタイムビデオ通信では、遅延の厳しい要求のため、ロスパケットを高遅延ネットワーク上で再送信することは不可能である。
本稿では,ユーザによるパケットロスに対するQE(Quality of Experience, QE)の保存を行うGRACEという,損失耐性のあるリアルタイムビデオシステムを提案する。
論文 参考訳(メタデータ) (2023-05-21T03:50:44Z) - Glitch in the Matrix: A Large Scale Benchmark for Content Driven
Audio-Visual Forgery Detection and Localization [20.46053083071752]
新しいデータセットであるLocalized Visual DeepFake (LAV-DF) の提案とベンチマークを行う。
LAV-DFは、戦略的コンテンツ駆動型オーディオ、ビジュアルおよびオーディオ視覚操作で構成されている。
提案するベースライン手法であるBundary Aware Temporal Forgery Detection (BA-TFD)は3次元畳み込みニューラルネットワークに基づくアーキテクチャである。
論文 参考訳(メタデータ) (2023-05-03T08:48:45Z) - Towards Scalable Neural Representation for Diverse Videos [68.73612099741956]
Inlicit Neural representations (INR)は、3Dシーンや画像の表現において注目を集めている。
既存のINRベースの手法は、冗長な視覚コンテンツを持つ短いビデオの符号化に限られている。
本稿では,多種多様な視覚コンテンツを持つ長編・多作ビデオの符号化のためのニューラル表現の開発に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Multi-Attention Network for Compressed Video Referring Object
Segmentation [103.18477550023513]
ビデオオブジェクトのセグメンテーションの参照は、与えられた言語表現によって参照されるオブジェクトをセグメンテーションすることを目的としている。
既存の作業は通常、圧縮されたビデオビットストリームをセグメント化する前にRGBフレームにデコードする必要がある。
これにより、自動運転車やドローンなど、現実のコンピューティングリソースの制限されたシナリオでの応用が妨げられる可能性がある。
論文 参考訳(メタデータ) (2022-07-26T03:00:52Z) - A Coding Framework and Benchmark towards Low-Bitrate Video Understanding [63.05385140193666]
我々は,従来のコーデックとニューラルネットワーク(NN)の両方を活用する,従来型ニューラル混合符号化フレームワークを提案する。
このフレームワークは、動画の移動効率の良いセマンティック表現を確実に保持することで最適化される。
8つのデータセットに3つのダウンストリームタスクを備えた低ビットレートビデオ理解ベンチマークを構築し、このアプローチの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2022-02-06T16:29:15Z) - Transcoded Video Restoration by Temporal Spatial Auxiliary Network [64.63157339057912]
本稿では,映像復元のための時間空間補助ネットワーク(TSAN)を提案する。
実験の結果,提案手法の性能は従来の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-15T08:10:23Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。