論文の概要: Cascading Convolutional Temporal Colour Constancy
- arxiv url: http://arxiv.org/abs/2106.07955v1
- Date: Tue, 15 Jun 2021 08:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:25:29.801366
- Title: Cascading Convolutional Temporal Colour Constancy
- Title(参考訳): Cascading Convolutional Temporal Colour Constancy
- Authors: Matteo Rizzo, Cristina Conati, Daesik Jang, Hui Hu
- Abstract要約: CCC(Computational Colour Constancy)は、1つ以上の照明器具の色を推定し、不要な歪みを取り除くために使用する。
多くの研究は、単一の画像上のCCCの照度推定に重点を置いており、相関画像のシーケンスに固有の時間的情報を活用する試みはほとんどない。
比較精度を保ちつつ,少数の選択されたフレームのモデルをシーケンスからトレーニングすることにより,推論時間を短縮できることを示す。
- 参考スコア(独自算出の注目度): 2.121963121603413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computational Colour Constancy (CCC) consists of estimating the colour of one
or more illuminants in a scene and using them to remove unwanted chromatic
distortions. Much research has focused on illuminant estimation for CCC on
single images, with few attempts of leveraging the temporal information
intrinsic in sequences of correlated images (e.g., the frames in a video), a
task known as Temporal Colour Constancy (TCC). The state-of-the-art for TCC is
TCCNet, a deep-learning architecture that uses a ConvLSTM for aggregating the
encodings produced by CNN submodules for each image in a sequence. We extend
this architecture with different models obtained by (i) substituting the TCCNet
submodules with C4, the state-of-the-art method for CCC targeting images; (ii)
adding a cascading strategy to perform an iterative improvement of the estimate
of the illuminant. We tested our models on the recently released TCC benchmark
and achieved results that surpass the state-of-the-art. Analyzing the impact of
the number of frames involved in illuminant estimation on performance, we show
that it is possible to reduce inference time by training the models on few
selected frames from the sequences while retaining comparable accuracy.
- Abstract(参考訳): CCC(Computational Colour Constancy)は、1つ以上の照明器具の色を推定し、不要な彩色歪みを除去する。
多くの研究は、単一の画像上のCCCの照度推定に重点を置いており、相関画像(例えばビデオのフレーム)のシーケンスに固有の時間的情報を活用する試みは、TCC(Temporal Colour Constancy)と呼ばれるタスクにほとんどない。
TCCの最先端技術であるTCCNetは、CNNサブモジュールが生成したエンコーディングをシーケンス毎に集約するためにConvLSTMを使用するディープラーニングアーキテクチャである。
本アーキテクチャは, (i) CCCターゲティング画像の最先端手法である C4 を TCCNet サブモジュールに置換し, (ii) イルミネート推定の反復的改善を行うカスケード戦略を追加することにより, 異なるモデルで拡張する。
私たちは最近リリースされたTCCベンチマークでモデルをテストし、最先端を超える結果を得た。
照度推定にかかわるフレーム数の影響を解析した結果,数個の選択されたフレームでモデルを訓練し,同等の精度を維持して推定時間を短縮できることがわかった。
関連論文リスト
- CIC: Circular Image Compression [2.079863206645103]
閉ループ符号化とデコード要素を用いた円形画像圧縮(CIC)手法を提案する。
提案したCICは非線形ループ方程式を確立し、再構成された画像と元の画像の定常誤差がタラー級数展開によってゼロに近いことを証明した。
5つの公開画像圧縮データセットの実験結果から、提案したCICは、復元能力において、最先端のSICアルゴリズムと競合する5つのオープンソースアルゴリズムより優れていることが示された。
論文 参考訳(メタデータ) (2024-07-18T13:53:51Z) - CCDM: Continuous Conditional Diffusion Models for Image Generation [22.70942688582302]
連続条件生成モデリング(CCGM)は、スカラー連続変数に基づく高次元データ(典型的には画像)の分布を推定することを目的としている。
既存のConditional Adversarial Networks (CcGANs) は、当初、このタスクのために設計されていたが、その逆のトレーニングメカニズムは、非常にスパースなデータや不均衡なデータに対して脆弱なままである。
生成画像の品質を高めるために、CcGANを条件拡散モデル(CDM)に置き換えることが有望な方法である。
論文 参考訳(メタデータ) (2024-05-06T15:10:19Z) - Image Inpainting via Tractable Steering of Diffusion Models [54.13818673257381]
本稿では,トラクタブル確率モデル(TPM)の制約後部を正確に,かつ効率的に計算する能力を活用することを提案する。
具体的には、確率回路(PC)と呼ばれる表現型TPMのクラスを採用する。
提案手法は, 画像の全体的な品質とセマンティックコヒーレンスを, 計算オーバーヘッドを10%加えるだけで一貫的に改善できることを示す。
論文 参考訳(メタデータ) (2023-11-28T21:14:02Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Depth Estimation from a Single Optical Encoded Image using a Learned
Colored-Coded Aperture [18.830374973687416]
State-of-the-artアプローチは、レンズ開口にバイナリ符号化開口(CA)を導入することにより、異なる深さの識別を改善する。
カラー符号化開口(CCA)は、撮影画像に色ずれを生じさせ、不一致を推定することができる。
本稿では,カラーフィルタの多さとスペクトル情報のリッチ化により,関連する深度情報を1枚のスナップショットで光学的に符号化するCCAを提案する。
論文 参考訳(メタデータ) (2023-09-14T21:30:55Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - Modeling Image Composition for Complex Scene Generation [77.10533862854706]
本稿では,レイアウト・ツー・イメージ生成タスクにおける最先端結果を実現する手法を提案する。
本稿では,RGB画像をパッチトークンに圧縮した後,オブジェクト・トゥ・オブジェクト,オブジェクト・トゥ・パッチ,パッチ・トゥ・パッチの依存関係を探索するTransformer with Focal Attention (TwFA)を提案する。
論文 参考訳(メタデータ) (2022-06-02T08:34:25Z) - ReCLIP: A Strong Zero-Shot Baseline for Referring Expression
Comprehension [114.85628613911713]
大規模事前学習モデルは領域間の画像分類に有用である。
ReCLIPは単純だが強力なゼロショットベースラインであり、ReCのための最先端の大規模モデルであるCLIPを再利用する。
論文 参考訳(メタデータ) (2022-04-12T17:55:38Z) - TUCaN: Progressively Teaching Colourisation to Capsules [13.50327471049997]
TUCaN(Tiny UCapsNet)という新しいダウンサンプリングアップサンプリングアーキテクチャを提案する。
我々は,色を量化空間内のビンとして識別するピクセルごとの色分類タスクとして,この問題に対処する。
ネットワークをトレーニングするために、標準的なエンドツーエンド学習法とは対照的に、オブジェクトのコンテキストを抽出するプログレッシブラーニング方式を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:44:15Z) - Co-Attention for Conditioned Image Matching [91.43244337264454]
照明, 視点, コンテキスト, 素材に大きな変化がある場合, 野生のイメージペア間の対応性を決定するための新しい手法を提案する。
他のアプローチでは、イメージを個別に扱うことで、画像間の対応を見出すが、その代わりに、画像間の差異を暗黙的に考慮するよう、両画像に条件を付ける。
論文 参考訳(メタデータ) (2020-07-16T17:32:00Z) - A Benchmark for Temporal Color Constancy [34.13737918749565]
時間的カラー一貫性(CC)は、最近提案されたアプローチであり、従来の単フレームカラー一貫性に挑戦するものである。
時間CCでは、ビューファインダーシーケンスから複数のフレームを使用して色を推定する。
メソッド評価のために、現実的な大規模な時間的色の一貫性データセットは存在しない。
論文 参考訳(メタデータ) (2020-03-08T11:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。