論文の概要: Illumination Histogram Consistency Metric for Quantitative Assessment of Video Sequences
- arxiv url: http://arxiv.org/abs/2405.09716v1
- Date: Wed, 15 May 2024 22:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 15:50:04.603592
- Title: Illumination Histogram Consistency Metric for Quantitative Assessment of Video Sequences
- Title(参考訳): 映像系列の定量的評価のための照度ヒストグラム整合度測定
- Authors: Long Chen, Mobarakol Islam, Matt Clarkson, Thomas Dowrick,
- Abstract要約: 動的映像系列における照明の変動を反映した照度一貫性は,映像処理において重要な役割を担っている。
映像照明の整合性評価には十分な量的基準は提案されていない。
映像シーケンスの照度一貫性を定量的かつ自動評価するための照度ヒストグラム整合性(IHC)尺度を提案する。
- 参考スコア(独自算出の注目度): 9.603559339564528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advances in deep generative models have greatly accelerate the process of video procession such as video enhancement and synthesis. Learning spatio-temporal video models requires to capture the temporal dynamics of a scene, in addition to the visual appearance of individual frames. Illumination consistency, which reflects the variations of illumination in the dynamic video sequences, play a vital role in video processing. Unfortunately, to date, no well-accepted quantitative metric has been proposed for video illumination consistency evaluation. In this paper, we propose a illumination histogram consistency (IHC) metric to quantitatively and automatically evaluate the illumination consistency of the video sequences. IHC measures the illumination variation of any video sequence based on the illumination histogram discrepancies across all the frames in the video sequence. Specifically, given a video sequence, we first estimate the illumination map of each individual frame using the Retinex model; Then, using the illumination maps, the mean illumination histogram of the video sequence is computed by the mean operation across all the frames; Next, we compute the illumination histogram discrepancy between each individual frame and the mean illumination histogram and sum up all the illumination histogram discrepancies to represent the illumination variations of the video sequence. Finally, we obtain the IHC score from the illumination histogram discrepancies via normalization and subtraction operations. Experiments are conducted to illustrate the performance of the proposed IHC metric and its capability to measure the illumination variations in video sequences. The source code is available on \url{https://github.com/LongChenCV/IHC-Metric}.
- Abstract(参考訳): 深層生成モデルの進歩は、ビデオの強化や合成のようなビデオ行列のプロセスを大幅に加速させた。
時空間ビデオモデルの学習には、個々のフレームの視覚的外観に加えて、シーンの時間的ダイナミクスを捉える必要がある。
動的ビデオシーケンスにおける照明の変動を反映した照度一貫性は,映像処理において重要な役割を担っている。
残念なことに、これまでビデオ照明の整合性評価に十分な定量的指標が提案されていない。
本稿では,映像シーケンスの照度一貫性を定量的かつ自動評価するための照度ヒストグラム整合性(IHC)メトリクスを提案する。
IHCは、ビデオシーケンス内の全フレームにわたる照明ヒストグラムの差に基づいて、任意のビデオシーケンスの照度変化を測定する。
具体的には、まず、各フレームの照度マップをRetinexモデルを用いて推定し、次に、各フレームの平均照度ヒストグラムを全フレームにわたる平均演算により算出し、次に、各フレームと平均照度ヒストグラム間の照度ヒストグラムの差を計算し、すべての照度ヒストグラムの差を和算し、ビデオシーケンスの照度変化を表す。
最後に、正規化と減算操作により、照明ヒストグラムの差からIHCスコアを得る。
提案したIHC測定値の性能と,映像系列の照明変動を測定する能力について,実験を行った。
ソースコードは \url{https://github.com/LongChenCV/IHC-Metric} で公開されている。
関連論文リスト
- Optical-Flow Guided Prompt Optimization for Coherent Video Generation [51.430833518070145]
我々は,光フローによる映像生成プロセスをガイドするMotionPromptというフレームワークを提案する。
ランダムフレーム対に適用した訓練された識別器の勾配を用いて,逆サンプリングステップにおける学習可能なトークン埋め込みを最適化する。
提案手法により,生成したコンテンツの忠実さを損なうことなく,自然な動きのダイナミクスを忠実に反映した視覚的コヒーレントな映像シーケンスを生成することができる。
論文 参考訳(メタデータ) (2024-11-23T12:26:52Z) - BlazeBVD: Make Scale-Time Equalization Great Again for Blind Video
Deflickering [13.476629715971221]
高精細度・高速ブラインドビデオデクリッカリングのためのヒストグラム支援ソリューションBlazeBVDを導入する。
BlazeBVDはSTEフィルタ内のスムーズな照明ヒストグラムを用いて、時間データ学習の難しさを緩和する。
推論速度は最先端の10倍にも達する。
論文 参考訳(メタデータ) (2024-03-10T15:56:55Z) - Attentive Illumination Decomposition Model for Multi-Illuminant White
Balancing [27.950125640986805]
多くの商用カメラにおけるホワイトバランス(WB)アルゴリズムは、単色および均一な照明を前提としている。
スロットアテンションを利用して,各スロットが個別の照度を表すようなホワイトバランスモデルを提案する。
この設計により、モデルは個々の照度に対する色度と重量マップを生成でき、最終照明マップを構成するために融合される。
論文 参考訳(メタデータ) (2024-02-28T12:15:29Z) - Personalized Video Relighting With an At-Home Light Stage [0.0]
我々は,高品質で時間的に一貫した映像をリアルタイムに生成するパーソナライズされたビデオリライティングアルゴリズムを開発した。
モニタでYouTubeビデオを見ているユーザの録画をキャプチャすることで、任意の条件下で高品質なリライティングを行うことのできるパーソナライズされたアルゴリズムをトレーニングできることを示す。
論文 参考訳(メタデータ) (2023-11-15T10:33:20Z) - Spatio-Temporal Outdoor Lighting Aggregation on Image Sequences using
Transformer Networks [23.6427456783115]
本研究は,画像からのノイズ推定を集約した屋外照明推定に焦点をあてる。
ディープニューラルネットワークに基づく最近の研究は、単一画像の照明推定に有望な結果を示しているが、堅牢性に悩まされている。
画像シーケンスの角領域と時間領域でサンプリングされた複数の画像ビューからの照明推定値を組み合わせることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-02-18T14:11:16Z) - Condensing a Sequence to One Informative Frame for Video Recognition [113.3056598548736]
本稿では,まず映像シーケンスを情報的「フレーム」に凝縮する2段階の代替手法について検討する。
有効な疑問は、どのように「有用な情報」を定義し、シーケンスから1つの合成フレームに蒸留するかである。
IFSは画像ベースの2Dネットワークとクリップベースの3Dネットワークを一貫して改善している。
論文 参考訳(メタデータ) (2022-01-11T16:13:43Z) - Neural Video Portrait Relighting in Real-time via Consistency Modeling [41.04622998356025]
本稿では,リアルタイム,高品質,コヒーレントな映像ポートレートリライティングのためのニューラルアプローチを提案する。
エンコーダデコーダアーキテクチャにおけるハイブリッド構造と照明非絡み合いを提案する。
また,実世界における自然ポートレート光操作の照明一貫性と突然変異をモデル化する照明サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2021-04-01T14:13:28Z) - GMLight: Lighting Estimation via Geometric Distribution Approximation [86.95367898017358]
本稿では,効率的な照明推定のための回帰ネットワークと生成プロジェクタを用いた照明推定フレームワークを提案する。
幾何学的な光の分布、光強度、周囲条件、および補助深さの点から照明シーンをパラメータ化し、純粋な回帰タスクとして推定します。
推定照明パラメータを用いて、生成プロジェクタはパノラマ照明マップを現実的な外観と周波数で合成する。
論文 参考訳(メタデータ) (2021-02-20T03:31:52Z) - Street-view Panoramic Video Synthesis from a Single Satellite Image [92.26826861266784]
時間的および幾何学的に一貫したストリートビューパノラマビデオの両方を合成する新しい方法を提示する。
既存のクロスビュー合成アプローチは画像に重点を置いているが、そのような場合のビデオ合成はまだ十分な注目を集めていない。
論文 参考訳(メタデータ) (2020-12-11T20:22:38Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z) - Neural Light Transport for Relighting and View Synthesis [70.39907425114302]
シーンの光輸送(LT)は、異なる照明と視界の方向の下でどのように見えるかを記述する。
本研究では、既知の幾何学的性質のテクスチャアトラスに埋め込まれたLTの神経表現を学習するための半パラメトリック手法を提案する。
照明条件下では,従来観測されていた照度と視界を融合させて,同じシーンの新たなイメージを合成する方法を示す。
論文 参考訳(メタデータ) (2020-08-09T20:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。