論文の概要: A Benchmark for Temporal Color Constancy
- arxiv url: http://arxiv.org/abs/2003.03763v1
- Date: Sun, 8 Mar 2020 11:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:23:37.793338
- Title: A Benchmark for Temporal Color Constancy
- Title(参考訳): テンポラルカラーコンステンシーのベンチマーク
- Authors: Yanlin Qian and Jani K\"apyl\"a and Joni-Kristian K\"am\"ar\"ainen and
Samu Koskinen and Jiri Matas
- Abstract要約: 時間的カラー一貫性(CC)は、最近提案されたアプローチであり、従来の単フレームカラー一貫性に挑戦するものである。
時間CCでは、ビューファインダーシーケンスから複数のフレームを使用して色を推定する。
メソッド評価のために、現実的な大規模な時間的色の一貫性データセットは存在しない。
- 参考スコア(独自算出の注目度): 34.13737918749565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Color Constancy (CC) is a recently proposed approach that challenges
the conventional single-frame color constancy. The conventional approach is to
use a single frame - shot frame - to estimate the scene illumination color. In
temporal CC, multiple frames from the view finder sequence are used to estimate
the color. However, there are no realistic large scale temporal color constancy
datasets for method evaluation. In this work, a new temporal CC benchmark is
introduced. The benchmark comprises of (1) 600 real-world sequences recorded
with a high-resolution mobile phone camera, (2) a fixed train-test split which
ensures consistent evaluation, and (3) a baseline method which achieves high
accuracy in the new benchmark and the dataset used in previous works. Results
for more than 20 well-known color constancy methods including the recent
state-of-the-arts are reported in our experiments.
- Abstract(参考訳): テンポラルカラーコンステンシー(英語版)(cc)は、従来の単一フレームカラーコンステンシーに挑戦する最近提案されたアプローチである。
従来のアプローチでは、シーンの照明色を推定するために、1フレームのショットフレームを使用する。
時間CCでは、ビューファインダーシーケンスから複数のフレームを使用して色を推定する。
しかし、手法評価のための現実的な大規模時間カラーコンステンシーデータセットは存在しない。
本研究では,新しい時間CCベンチマークを導入する。
本ベンチマークは,(1)高精細度携帯電話カメラで記録された600個の実世界シーケンス,(2)一貫した評価を保証する固定列車分割,(3)新しいベンチマークと過去の研究で使用されるデータセットの高精度化を実現するベースライン手法からなる。
本実験では,近年の最先端技術を含む20以上の有色着色方法について報告する。
関連論文リスト
- MEDeA: Multi-view Efficient Depth Adjustment [45.90423821963144]
MEDeAは、既存のテスト時間アプローチよりも桁違いに高速な効率的な多視点テスト時間深度調整法である。
提案手法は, TUM RGB-D, 7Scenes, ScanNet のベンチマークに新たな最先端性を設定し,ARKitScenes データセットから取得したスマートフォンデータの処理に成功している。
論文 参考訳(メタデータ) (2024-06-17T19:39:13Z) - Improving Video Colorization by Test-Time Tuning [79.67548221384202]
テスト時間チューニングによる映像の着色性向上を目的とした,効果的な手法を提案する。
提案手法は,テスト中に追加のトレーニングサンプルを構築するための基準を利用して,PSNRにおいて平均13dBの性能向上を実現している。
論文 参考訳(メタデータ) (2023-06-25T05:36:40Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - Temporal Consistent Automatic Video Colorization via Semantic
Correspondence [12.107878178519128]
本稿では,セマンティック対応と自動ビデオカラー化を組み合わせた新しい映像カラー化フレームワークを提案する。
NTIRE 2023ビデオカラー化チャレンジでは,色分布一貫性(CDC)最適化トラックで3位にランクインした。
論文 参考訳(メタデータ) (2023-05-13T12:06:09Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Temporally Consistent Video Colorization with Deep Feature Propagation
and Self-regularization Learning [90.38674162878496]
時間的に一貫した新しいビデオカラー化フレームワーク(TCVC)を提案する。
TCVCは、フレームレベルの深い特徴を双方向的に効果的に伝播し、色付けの時間的一貫性を高める。
実験により,本手法は視覚的に満足な色付きビデオを得るだけでなく,最先端の手法よりも時間的整合性が得られることが示された。
論文 参考訳(メタデータ) (2021-10-09T13:00:14Z) - Cascading Convolutional Temporal Colour Constancy [2.121963121603413]
CCC(Computational Colour Constancy)は、1つ以上の照明器具の色を推定し、不要な歪みを取り除くために使用する。
多くの研究は、単一の画像上のCCCの照度推定に重点を置いており、相関画像のシーケンスに固有の時間的情報を活用する試みはほとんどない。
比較精度を保ちつつ,少数の選択されたフレームのモデルをシーケンスからトレーニングすることにより,推論時間を短縮できることを示す。
論文 参考訳(メタデータ) (2021-06-15T08:17:30Z) - Reference-Based Video Colorization with Spatiotemporal Correspondence [8.472559058510205]
時間対応を考慮した参照型ビデオカラー化フレームワークを提案する。
色を参照するために時間的関連領域を制限することで、ビデオ全体を通して忠実な色を伝播する。
論文 参考訳(メタデータ) (2020-11-25T05:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。