論文の概要: Cross-Camera Convolutional Color Constancy
- arxiv url: http://arxiv.org/abs/2011.11890v6
- Date: Fri, 11 Feb 2022 03:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:19:17.456392
- Title: Cross-Camera Convolutional Color Constancy
- Title(参考訳): クロスカメラ・コンボリューショナル・カラー・コンステンシー
- Authors: Mahmoud Afifi, Jonathan T. Barron, Chloe LeGendre, Yun-Ta Tsai,
Francois Bleibel
- Abstract要約: Cross-Camera Convolutional Color Constancy (C5)は、複数のカメラの画像に基づいて訓練された学習ベースの手法である。
C5は、いくつかのデータセット上で、クロスカメラカラー一貫性の最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 38.02438104265363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present "Cross-Camera Convolutional Color Constancy" (C5), a
learning-based method, trained on images from multiple cameras, that accurately
estimates a scene's illuminant color from raw images captured by a new camera
previously unseen during training. C5 is a hypernetwork-like extension of the
convolutional color constancy (CCC) approach: C5 learns to generate the weights
of a CCC model that is then evaluated on the input image, with the CCC weights
dynamically adapted to different input content. Unlike prior cross-camera color
constancy models, which are usually designed to be agnostic to the spectral
properties of test-set images from unobserved cameras, C5 approaches this
problem through the lens of transductive inference: additional unlabeled images
are provided as input to the model at test time, which allows the model to
calibrate itself to the spectral properties of the test-set camera during
inference. C5 achieves state-of-the-art accuracy for cross-camera color
constancy on several datasets, is fast to evaluate (~7 and ~90 ms per image on
a GPU or CPU, respectively), and requires little memory (~2 MB), and thus is a
practical solution to the problem of calibration-free automatic white balance
for mobile photography.
- Abstract(参考訳): 本研究では,複数のカメラの画像から学習を行う学習ベースの手法である"cross-camera convolutional color constancy"(c5)を提案する。
C5はCCCモデルの重みを学習し、入力された画像に基づいて評価し、CCC重みを異なる入力内容に動的に適応させる。
従来のクロスカメラカラーコンスタンシーモデルは、通常、観測されていないカメラからのテストセット画像のスペクトル特性に非依存に設計されているが、C5はトランスダクティブ推論のレンズを通してこの問題にアプローチする: 追加のラベルなし画像はテスト時にモデルへの入力として提供され、推論中にテストセットカメラのスペクトル特性に自身を調整することができる。
c5は、複数のデータセットにおけるクロスカメラカラーコンステンシーの最先端の精度を実現し、評価が速い(gpuやcpuでは、画像あたり7~90ミリ秒)ため、メモリも少ない(約2mb)ため、モバイル写真のキャリブレーションフリー自動ホワイトバランスの問題に対する実用的な解決策となる。
関連論文リスト
- EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Homography Estimation in Complex Topological Scenes [6.023710971800605]
監視ビデオや画像は、交通分析から犯罪検出まで、幅広い用途に使用されている。
外部カメラキャリブレーションデータは、ほとんどの分析アプリケーションにとって重要である。
本稿では,任意のカメラ設定に関する事前知識を必要としない辞書ベースのアプローチを活用した自動カメラ校正プロセスを提案する。
論文 参考訳(メタデータ) (2023-08-02T11:31:43Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - Deep Learning for Camera Calibration and Beyond: A Survey [100.75060862015945]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Colour alignment for relative colour constancy via non-standard
references [11.92389176996629]
相対色濃度は、多くの科学的イメージング応用に必須の要件である。
カメラ画像形成をブラックボックスとみなすカラーアライメントモデルを提案する。
カラーアライメントは、カメラ応答校正、応答線形化、色マッチングという3段階のプロセスとして定式化される。
論文 参考訳(メタデータ) (2021-12-30T15:58:55Z) - Semi-Supervised Raw-to-Raw Mapping [19.783856963405754]
カメラセンサーの生RGB色は、異なるセンサーのメーカーやモデル間のスペクトル感度の違いによって異なる。
本稿では,各カメラ装置が捉えた画像とペア画像の小さなセットで訓練した半教師付き生-生-生のマッピング手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T21:01:45Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Full Quaternion Representation of Color images: A Case Study on
QSVD-based Color Image Compression [0.38073142980732994]
カラー画像を四元数で表現する手法を提案する。
オートエンコーダニューラルネットワークを用いて、カラー画像をフル四元行列に変換するグローバルモデルを生成する。
論文 参考訳(メタデータ) (2020-07-19T19:13:21Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。