論文の概要: Histogram-guided Video Colorization Structure with Spatial-Temporal
Connection
- arxiv url: http://arxiv.org/abs/2308.04899v1
- Date: Wed, 9 Aug 2023 11:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:52:51.295723
- Title: Histogram-guided Video Colorization Structure with Spatial-Temporal
Connection
- Title(参考訳): 空間-時間接続を有するヒストグラム誘導ビデオカラー化構造
- Authors: Zheyuan Liu, Pan Mu, Hanning Xu, Cong Bai
- Abstract要約: 空間時間接続構造を用いたヒストグラム誘導映像色化(ST-HVC)
色覚と運動情報を十分に活用するために、関節血流とヒストグラムモジュールを調整し、ヒストグラムとフローの特徴を統合する。
提案手法は,2つのビデオデータセットにおいて,定量的かつ質的に優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 10.059070138875038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video colorization, aiming at obtaining colorful and plausible results from
grayish frames, has aroused a lot of interest recently. Nevertheless, how to
maintain temporal consistency while keeping the quality of colorized results
remains challenging. To tackle the above problems, we present a
Histogram-guided Video Colorization with Spatial-Temporal connection structure
(named ST-HVC). To fully exploit the chroma and motion information, the joint
flow and histogram module is tailored to integrate the histogram and flow
features. To manage the blurred and artifact, we design a combination scheme
attending to temporal detail and flow feature combination. We further recombine
the histogram, flow and sharpness features via a U-shape network. Extensive
comparisons are conducted with several state-of-the-art image and video-based
methods, demonstrating that the developed method achieves excellent performance
both quantitatively and qualitatively in two video datasets.
- Abstract(参考訳): 動画のカラー化は、灰色がかったフレームからカラフルで可愛らしい結果を得ることを目的としています。
それでも、色付けされた結果の品質を維持しながら時間的一貫性を維持する方法はまだ難しい。
上記の問題に対処するため,時空間接続構造(ST-HVC)を用いたヒストグラム誘導ビデオカラー化を提案する。
クロマと動きの情報を完全に活用するために、ジョイントフローとヒストグラムモジュールを調整し、ヒストグラムとフローの特徴を統合する。
ぼかしとアーティファクトを管理するため,時間的詳細とフロー特徴の組み合わせに対応する組み合わせスキームを設計する。
さらに,ヒストグラム,フロー,シャープネス機能をu字型ネットワークで再結合する。
本手法は2つのビデオデータセットにおいて定量的および定性的に優れた性能を実現することを実証し,最先端画像と映像ベース手法を用いて広範囲比較を行った。
関連論文リスト
- LatentColorization: Latent Diffusion-Based Speaker Video Colorization [1.2641141743223379]
ビデオのカラー化における時間的一貫性を実現するための新しいソリューションを提案する。
既存の手法と比較して,確立された画像品質指標の大幅な改善を示す。
我々のデータセットは、テレビ/映画からの従来のデータセットとビデオの組み合わせを含んでいる。
論文 参考訳(メタデータ) (2024-05-09T12:06:06Z) - VideoComposer: Compositional Video Synthesis with Motion Controllability [52.4714732331632]
VideoComposerを使えば、ユーザーはテキストの条件や空間的条件、さらに重要な時間的条件でビデオを柔軟に組み立てることができる。
圧縮ビデオからの運動ベクトルを明示的な制御信号として導入し、時間的ダイナミクスに関するガイダンスを提供する。
さらに、逐次入力の空間的・時間的関係を効果的に組み込むために、統一インターフェースとして機能する時空間条件エンコーダ(STC-エンコーダ)を開発した。
論文 参考訳(メタデータ) (2023-06-03T06:29:02Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - FlowChroma -- A Deep Recurrent Neural Network for Video Colorization [1.0499611180329804]
フレーム間の色合いを最小限に抑える自動ビデオカラー化フレームワークを開発した。
ビデオのカラー化における色一貫性向上のために、繰り返しニューラルネットワークをうまく利用できることが示される。
論文 参考訳(メタデータ) (2023-05-23T05:41:53Z) - Condensing a Sequence to One Informative Frame for Video Recognition [113.3056598548736]
本稿では,まず映像シーケンスを情報的「フレーム」に凝縮する2段階の代替手法について検討する。
有効な疑問は、どのように「有用な情報」を定義し、シーケンスから1つの合成フレームに蒸留するかである。
IFSは画像ベースの2Dネットワークとクリップベースの3Dネットワークを一貫して改善している。
論文 参考訳(メタデータ) (2022-01-11T16:13:43Z) - Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning [90.38674162878496]
時間的に一貫した新しいビデオカラー化フレームワーク(TCVC)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
実験により,本手法は視覚的に満足な色付きビデオを得るだけでなく,最先端の手法よりも時間的整合性が得られることが示された。
論文 参考訳(メタデータ) (2021-10-09T13:00:14Z) - Attention-guided Temporal Coherent Video Object Matting [78.82835351423383]
本稿では,時間的コヒーレントなマッチング結果が得られる深層学習に基づくオブジェクトマッチング手法を提案する。
中心となるコンポーネントは、画像マッチングネットワークの強度を最大化するアテンションベースの時間アグリゲーションモジュールである。
本稿では,最先端のビデオオブジェクトセグメンテーションネットワークを微調整することで,トリマップ生成問題を効果的に解決する方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:34:57Z) - VCGAN: Video Colorization with Hybrid Generative Adversarial Network [22.45196398040388]
ハイブリッド生成適応ネットワーク(VCGAN)によるハイブリッド映像のカラー化は、エンドツーエンド学習を用いたカラー化への改良されたアプローチである。
実験の結果,VCGANは既存の手法よりも高品質で時間的に一貫したカラービデオを生成することがわかった。
論文 参考訳(メタデータ) (2021-04-26T05:50:53Z) - Deep Video Matting via Spatio-Temporal Alignment and Aggregation [63.6870051909004]
新たな集計機能モジュール(STFAM)を用いた深層学習型ビデオマッチングフレームワークを提案する。
フレーム毎のトリマップアノテーションを排除するため、軽量なインタラクティブなトリマップ伝搬ネットワークも導入されている。
私達のフレームワークは従来のビデオ マットおよび深いイメージのマットの方法よりかなり優秀です。
論文 参考訳(メタデータ) (2021-04-22T17:42:08Z) - Progressive Temporal Feature Alignment Network for Video Inpainting [51.26380898255555]
ビデオ畳み込みは、時間内「破損した地域」に可能な内容で埋めることを目指しています。
現在の方法は、注意、フローベースのワープ、あるいは3次元時間的畳み込みによってこの目標を達成する。
現在のフレームから抽出された特徴を、隣接するフレームから歪んだ特徴で段階的に強化する「プログレッシブ・テンポラリティ・アライメント・ネットワーク」を提案します。
論文 参考訳(メタデータ) (2021-04-08T04:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。