論文の概要: Encoding in the Dark Grand Challenge: An Overview
- arxiv url: http://arxiv.org/abs/2005.03315v1
- Date: Thu, 7 May 2020 08:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 23:50:32.697944
- Title: Encoding in the Dark Grand Challenge: An Overview
- Title(参考訳): ダークグランドチャレンジにおけるエンコーディング:概要
- Authors: Nantheera Anantrasirichai, Fan Zhang, Alexandra Malyugina, Paul Hill,
and Angeliki Katsenou
- Abstract要約: 低照度映像シーケンスの符号化に関するグランドチャレンジを提案する。
VVCは、エンコーディングに先立って単にビデオソースをデノベートするよりも高いパフォーマンスを達成する。
後処理画像強調法を用いることで、ビデオストリームの品質をさらに向上することができる。
- 参考スコア(独自算出の注目度): 60.9261003831389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A big part of the video content we consume from video providers consists of
genres featuring low-light aesthetics. Low light sequences have special
characteristics, such as spatio-temporal varying acquisition noise and light
flickering, that make the encoding process challenging. To deal with the
spatio-temporal incoherent noise, higher bitrates are used to achieve high
objective quality. Additionally, the quality assessment metrics and methods
have not been designed, trained or tested for this type of content. This has
inspired us to trigger research in that area and propose a Grand Challenge on
encoding low-light video sequences. In this paper, we present an overview of
the proposed challenge, and test state-of-the-art methods that will be part of
the benchmark methods at the stage of the participants' deliverable assessment.
From this exploration, our results show that VVC already achieves a high
performance compared to simply denoising the video source prior to encoding.
Moreover, the quality of the video streams can be further improved by employing
a post-processing image enhancement method.
- Abstract(参考訳): 私たちがビデオプロバイダから消費するビデオコンテンツの大部分は、低照度美学を特徴とするジャンルで構成されています。
低照度シーケンスは、時空間の異なる取得ノイズやライトフリッカリングなどの特別な特性を持ち、符号化プロセスは困難である。
時空間的非コヒーレントノイズに対処するために、高いビットレートを用いて高い客観的品質を実現する。
さらに、品質評価のメトリクスとメソッドは、この種のコンテンツのために設計、トレーニング、またはテストされていない。
これにより、この分野の研究のきっかけとなり、低照度ビデオシーケンスを符号化するグランドチャレンジが提案されました。
本稿では,提案する課題の概要と,参加者が提供可能な評価の段階におけるベンチマーク手法の一部となる最先端手法の検証について述べる。
この結果から,vvcはエンコーディング前に映像ソースをデノベートするよりも高い性能を実現していることが示された。
さらに、後処理画像強調法を用いることで、映像ストリームの品質をさらに向上することができる。
関連論文リスト
- Noise Calibration: Plug-and-play Content-Preserving Video Enhancement using Pre-trained Video Diffusion Models [47.518487213173785]
コンテンツの視覚的品質と一貫性の両方を考慮した新しい定式化を提案する。
コンテントの整合性は,事前学習した拡散モデルのデノナイジングプロセスを利用して視覚的品質を向上させるとともに,入力の構造を維持可能な損失関数によって保証される。
論文 参考訳(メタデータ) (2024-07-14T17:59:56Z) - VJT: A Video Transformer on Joint Tasks of Deblurring, Low-light
Enhancement and Denoising [45.349350685858276]
ビデオ復元作業は、低品質な観察から高品質な映像を復元することを目的としている。
ビデオはしばしば、ぼやけ、低照度、ノイズなど、さまざまな種類の劣化に直面します。
本稿では,映像の劣化,低照度化,雑音化といった共同作業に対して,効率的なエンドツーエンドビデオトランスフォーマ手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T10:27:56Z) - VaQuitA: Enhancing Alignment in LLM-Assisted Video Understanding [63.075626670943116]
本稿では,映像情報とテキスト情報の相乗効果を向上するための最先端フレームワークであるVaQuitAを紹介する。
データレベルでは、フレームを均一にサンプリングする代わりに、CLIPスコアランキングでガイドされるサンプリング手法を実装している。
機能レベルでは、Visual-Query Transformerと一緒にトレーニング可能なVideo Perceiverを統合します。
論文 参考訳(メタデータ) (2023-12-04T19:48:02Z) - Lightweight High-Speed Photography Built on Coded Exposure and Implicit Neural Representation of Videos [34.152901518593396]
高速シーンを高解像度で記録できるコンパクトカメラの需要は着実に増加している。
しかし、そのような能力を達成するには、しばしば高帯域幅の要求が伴うため、低容量のプラットフォームには不適当で重いシステムになる。
本稿では,ビデオの暗黙的表現と古典的符号化露光画像技術を組み合わせることで,これらの課題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T03:41:13Z) - Low-light Image and Video Enhancement via Selective Manipulation of
Chromaticity [1.4680035572775534]
低照度画像と映像強調のための簡易かつ効果的なアプローチを提案する。
上述の適応性により、低照度画像分解による照明と反射率へのコストのかかるステップを回避できる。
標準の低照度画像データセットでは,いくつかの最先端技術に対して,アルゴリズムの有効性と質的,定量的な優位性を示す。
論文 参考訳(メタデータ) (2022-03-09T17:01:28Z) - Low-Fidelity End-to-End Video Encoder Pre-training for Temporal Action
Localization [96.73647162960842]
TALはビデオ理解の基本的な課題だが、難しい課題だ。
既存のtalメソッドは、アクション分類の監督を通じてビデオエンコーダを事前トレーニングする。
本稿では,ローファイダリティ・エンド・ツー・エンド(LoFi)ビデオエンコーダの事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-28T22:18:14Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。