論文の概要: Cascading Convolutional Temporal Colour Constancy
- arxiv url: http://arxiv.org/abs/2106.07955v1
- Date: Tue, 15 Jun 2021 08:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:25:29.801366
- Title: Cascading Convolutional Temporal Colour Constancy
- Title(参考訳): Cascading Convolutional Temporal Colour Constancy
- Authors: Matteo Rizzo, Cristina Conati, Daesik Jang, Hui Hu
- Abstract要約: CCC(Computational Colour Constancy)は、1つ以上の照明器具の色を推定し、不要な歪みを取り除くために使用する。
多くの研究は、単一の画像上のCCCの照度推定に重点を置いており、相関画像のシーケンスに固有の時間的情報を活用する試みはほとんどない。
比較精度を保ちつつ,少数の選択されたフレームのモデルをシーケンスからトレーニングすることにより,推論時間を短縮できることを示す。
- 参考スコア(独自算出の注目度): 2.121963121603413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computational Colour Constancy (CCC) consists of estimating the colour of one
or more illuminants in a scene and using them to remove unwanted chromatic
distortions. Much research has focused on illuminant estimation for CCC on
single images, with few attempts of leveraging the temporal information
intrinsic in sequences of correlated images (e.g., the frames in a video), a
task known as Temporal Colour Constancy (TCC). The state-of-the-art for TCC is
TCCNet, a deep-learning architecture that uses a ConvLSTM for aggregating the
encodings produced by CNN submodules for each image in a sequence. We extend
this architecture with different models obtained by (i) substituting the TCCNet
submodules with C4, the state-of-the-art method for CCC targeting images; (ii)
adding a cascading strategy to perform an iterative improvement of the estimate
of the illuminant. We tested our models on the recently released TCC benchmark
and achieved results that surpass the state-of-the-art. Analyzing the impact of
the number of frames involved in illuminant estimation on performance, we show
that it is possible to reduce inference time by training the models on few
selected frames from the sequences while retaining comparable accuracy.
- Abstract(参考訳): CCC(Computational Colour Constancy)は、1つ以上の照明器具の色を推定し、不要な彩色歪みを除去する。
多くの研究は、単一の画像上のCCCの照度推定に重点を置いており、相関画像(例えばビデオのフレーム)のシーケンスに固有の時間的情報を活用する試みは、TCC(Temporal Colour Constancy)と呼ばれるタスクにほとんどない。
TCCの最先端技術であるTCCNetは、CNNサブモジュールが生成したエンコーディングをシーケンス毎に集約するためにConvLSTMを使用するディープラーニングアーキテクチャである。
本アーキテクチャは, (i) CCCターゲティング画像の最先端手法である C4 を TCCNet サブモジュールに置換し, (ii) イルミネート推定の反復的改善を行うカスケード戦略を追加することにより, 異なるモデルで拡張する。
私たちは最近リリースされたTCCベンチマークでモデルをテストし、最先端を超える結果を得た。
照度推定にかかわるフレーム数の影響を解析した結果,数個の選択されたフレームでモデルを訓練し,同等の精度を維持して推定時間を短縮できることがわかった。
関連論文リスト
- Image Inpainting via Tractable Steering of Diffusion Models [54.13818673257381]
本稿では,トラクタブル確率モデル(TPM)の制約後部を正確に,かつ効率的に計算する能力を活用することを提案する。
具体的には、確率回路(PC)と呼ばれる表現型TPMのクラスを採用する。
提案手法は, 画像の全体的な品質とセマンティックコヒーレンスを, 計算オーバーヘッドを10%加えるだけで一貫的に改善できることを示す。
論文 参考訳(メタデータ) (2023-11-28T21:14:02Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Depth Estimation from a Single Optical Encoded Image using a Learned
Colored-Coded Aperture [18.830374973687416]
State-of-the-artアプローチは、レンズ開口にバイナリ符号化開口(CA)を導入することにより、異なる深さの識別を改善する。
カラー符号化開口(CCA)は、撮影画像に色ずれを生じさせ、不一致を推定することができる。
本稿では,カラーフィルタの多さとスペクトル情報のリッチ化により,関連する深度情報を1枚のスナップショットで光学的に符号化するCCAを提案する。
論文 参考訳(メタデータ) (2023-09-14T21:30:55Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - Video Shadow Detection via Spatio-Temporal Interpolation Consistency
Training [31.115226660100294]
本稿では、ラベル付き画像とともにラベル付きビデオフレームを画像陰影検出ネットワークトレーニングに供給するフレームワークを提案する。
次に,画素ワイド分類における一般化の促進のために,空間的および時間的整合性の制約を導出する。
さらに,画像のマルチスケール影知識学習のためのスケール・アウェア・ネットワークを設計する。
論文 参考訳(メタデータ) (2022-06-17T14:29:51Z) - Modeling Image Composition for Complex Scene Generation [77.10533862854706]
本稿では,レイアウト・ツー・イメージ生成タスクにおける最先端結果を実現する手法を提案する。
本稿では,RGB画像をパッチトークンに圧縮した後,オブジェクト・トゥ・オブジェクト,オブジェクト・トゥ・パッチ,パッチ・トゥ・パッチの依存関係を探索するTransformer with Focal Attention (TwFA)を提案する。
論文 参考訳(メタデータ) (2022-06-02T08:34:25Z) - ReCLIP: A Strong Zero-Shot Baseline for Referring Expression
Comprehension [114.85628613911713]
大規模事前学習モデルは領域間の画像分類に有用である。
ReCLIPは単純だが強力なゼロショットベースラインであり、ReCのための最先端の大規模モデルであるCLIPを再利用する。
論文 参考訳(メタデータ) (2022-04-12T17:55:38Z) - TUCaN: Progressively Teaching Colourisation to Capsules [13.50327471049997]
TUCaN(Tiny UCapsNet)という新しいダウンサンプリングアップサンプリングアーキテクチャを提案する。
我々は,色を量化空間内のビンとして識別するピクセルごとの色分類タスクとして,この問題に対処する。
ネットワークをトレーニングするために、標準的なエンドツーエンド学習法とは対照的に、オブジェクトのコンテキストを抽出するプログレッシブラーニング方式を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:44:15Z) - Generating Images with Sparse Representations [21.27273495926409]
画像の高次元化は、確率に基づく生成モデルのアーキテクチャとサンプリング効率の課題を示す。
JPEGのような一般的な画像圧縮法に触発された代替手法を提示し、画像を量子化された離散コサイン変換(DCT)ブロックに変換する。
本稿では,次の要素の条件分布を逐次的に予測するトランスフォーマに基づく自己回帰型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-05T17:56:03Z) - Co-Attention for Conditioned Image Matching [91.43244337264454]
照明, 視点, コンテキスト, 素材に大きな変化がある場合, 野生のイメージペア間の対応性を決定するための新しい手法を提案する。
他のアプローチでは、イメージを個別に扱うことで、画像間の対応を見出すが、その代わりに、画像間の差異を暗黙的に考慮するよう、両画像に条件を付ける。
論文 参考訳(メタデータ) (2020-07-16T17:32:00Z) - A Benchmark for Temporal Color Constancy [34.13737918749565]
時間的カラー一貫性(CC)は、最近提案されたアプローチであり、従来の単フレームカラー一貫性に挑戦するものである。
時間CCでは、ビューファインダーシーケンスから複数のフレームを使用して色を推定する。
メソッド評価のために、現実的な大規模な時間的色の一貫性データセットは存在しない。
論文 参考訳(メタデータ) (2020-03-08T11:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。