論文の概要: BVI-Artefact: An Artefact Detection Benchmark Dataset for Streamed
Videos
- arxiv url: http://arxiv.org/abs/2312.08859v2
- Date: Thu, 7 Mar 2024 12:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:14:25.265198
- Title: BVI-Artefact: An Artefact Detection Benchmark Dataset for Streamed
Videos
- Title(参考訳): BVI-Artefact: ストリーミングビデオのアーティファクト検出ベンチマークデータセット
- Authors: Chen Feng, Duolikun Danier, Fan Zhang, Alex Mackin, Andy Collins and
David Bull
- Abstract要約: この研究は、ストリームされたPGC内のアーティファクト検出のための包括的なベンチマークの欠如に対処する。
ビデオストリーミングにおいて最も関連性の高い10種類のアーティファクトを考慮し,480の動画シーケンスを収集,生成した。
その結果、これらの課題の難易度が示され、より信頼性の高い人工物検出方法の必要性が示唆された。
- 参考スコア(独自算出の注目度): 7.5806062386946245
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Professionally generated content (PGC) streamed online can contain visual
artefacts that degrade the quality of user experience. These artefacts arise
from different stages of the streaming pipeline, including acquisition,
post-production, compression, and transmission. To better guide streaming
experience enhancement, it is important to detect specific artefacts at the
user end in the absence of a pristine reference. In this work, we address the
lack of a comprehensive benchmark for artefact detection within streamed PGC,
via the creation and validation of a large database, BVI-Artefact. Considering
the ten most relevant artefact types encountered in video streaming, we
collected and generated 480 video sequences, each containing various artefacts
with associated binary artefact labels. Based on this new database, existing
artefact detection methods are benchmarked, with results showing the
challenging nature of this tasks and indicating the requirement of more
reliable artefact detection methods. To facilitate further research in this
area, we have made BVI-Artifact publicly available at
https://chenfeng-bristol.github.io/BVI-Artefact/
- Abstract(参考訳): オンラインでストリーミングされるプロフェッショナル生成コンテンツ(PGC)には、ユーザエクスペリエンスの品質を低下させる視覚的アーティファクトが含まれている。
これらのアーティファクトは、取得、ポストプロダクション、圧縮、送信など、ストリーミングパイプラインのさまざまな段階から発生します。
ストリーミング体験の向上を向上するためには、プリスタン参照がない場合に、ユーザエンドで特定のアーティファクトを検出することが重要である。
本研究では,大規模データベースBVI-Artefactの作成と検証を通じて,ストリームされたPGC内のアーティファクト検出のための包括的なベンチマークの欠如に対処する。
ビデオストリーミングで遭遇する最も関連する10種類のアーティファクトタイプを考慮して,480種類のビデオシーケンスを収集して生成し,それぞれに関連するバイナリアーティファクトラベルを含む。
この新たなデータベースに基づいて,既存のアーティファクト検出手法をベンチマークし,この課題の困難な性質を示し,より信頼性の高いアーティファクト検出手法の必要性を示す。
この分野のさらなる研究を促進するため、我々はBVI-Artifactをhttps://chenfeng-bristol.github.io/BVI-Artefact/で公開しました。
関連論文リスト
- MVAD: A Multiple Visual Artifact Detector for Video Streaming [7.782835693566871]
ヴィジュアルアーティファクトは、しばしば、コンテンツ制作と配信の間、一般的な条件のために、ストリーミングされたビデオコンテンツに導入される。
既存の検出方法は、単一の種類のアーティファクトに焦点を当て、客観的な品質指標をしきい値にすることで、アーティファクトの存在を判断することが多い。
本稿では,ビデオストリーミングのためのマルチビジュアルアーティファクト検出器 MVAD を提案する。
論文 参考訳(メタデータ) (2024-05-31T21:56:04Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Reference-based Restoration of Digitized Analog Videotapes [28.773037051085318]
デジタルアナログビデオテープ(TAPE)の再作成のための参照ベースアプローチを提案する。
ゼロショットアーティファクト検出にCLIPを活用し、異なるアーティファクトを記述するテキストプロンプトを通じて、各ビデオの最もクリーンなフレームを識別する。
実世界のビデオにおける真実の欠如に対処するため、アナログビデオテープによく見られるアーティファクトによく似た、ビデオの合成データセットを作成します。
論文 参考訳(メタデータ) (2023-10-20T17:33:57Z) - AVTENet: Audio-Visual Transformer-based Ensemble Network Exploiting
Multiple Experts for Video Deepfake Detection [53.448283629898214]
近年の超現実的なディープフェイクビデオの普及は、オーディオと視覚の偽造の脅威に注意を向けている。
AI生成のフェイクビデオの検出に関するこれまでのほとんどの研究は、視覚的モダリティまたはオーディオ的モダリティのみを使用していた。
音響操作と視覚操作の両方を考慮したAVTENet(Audio-Visual Transformer-based Ensemble Network)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - Saliency-Aware Spatio-Temporal Artifact Detection for Compressed Video
Quality Assessment [16.49357671290058]
圧縮されたビデオは、しばしば知覚可能なテンポラルアーティファクト(PEAs)として知られる視覚的に厄介なアーティファクトを示す。
本稿では,4つの空間的PEA(ブラーリング,ブロッキング,出血,リング)と2つの時間的PEA(フリックリング,フローティング)が映像品質に与える影響について検討する。
6種類のPEAに基づいて,SSTAM(Saliency-Aware Spatio-Temporal Artifacts Measurement)と呼ばれる品質指標を提案する。
論文 参考訳(メタデータ) (2023-01-03T12:48:27Z) - Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model [14.308886041268973]
そこで本研究では,コモン・アーティファクト・ディープフェイク検出モデルという新しいディープフェイク検出手法を提案する。
共通アーティファクトの特徴を学習する上での大きな障害は、モデルがアイデンティティ表現機能によって容易に誤解されることである。
本手法は,Implicit Identity Leakageの影響を効果的に低減し,最先端技術よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-10-26T04:02:29Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - VideoForensicsHQ: Detecting High-quality Manipulated Face Videos [77.60295082172098]
偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
論文 参考訳(メタデータ) (2020-05-20T21:17:43Z) - BBAND Index: A No-Reference Banding Artifact Predictor [55.42929350861115]
バンディングアーティファクト(英: Banding artifact)または偽コントゥーリング(英: false contouring)は、一般的なビデオ圧縮障害である。
本稿では,Blind BANding Detector (BBAND index) と呼ばれる,歪み特異的な非参照ビデオ品質モデルを提案する。
論文 参考訳(メタデータ) (2020-02-27T03:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。