論文の概要: Practical cross-sensor color constancy using a dual-mapping strategy
- arxiv url: http://arxiv.org/abs/2311.11773v1
- Date: Mon, 20 Nov 2023 13:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:37:09.058608
- Title: Practical cross-sensor color constancy using a dual-mapping strategy
- Title(参考訳): デュアルマッピング戦略を用いた実用的クロスセンサカラーコンステンシー
- Authors: Shuwei Yue and Minchen Wei
- Abstract要約: 提案手法では,D65条件下では,テストセンサからの単純な白点のみを必要とする。
第2のマッピングフェーズでは、再構成された画像データをスパースに変換し、軽量な多層パーセプトロン(MLP)モデルで最適化する。
このアプローチは、センサの相違を効果的に低減し、主要なクロスセンサー手法と同等の性能を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been widely used for illumination
estimation, which is time-consuming and requires sensor-specific data
collection. Our proposed method uses a dual-mapping strategy and only requires
a simple white point from a test sensor under a D65 condition. This allows us
to derive a mapping matrix, enabling the reconstructions of image data and
illuminants. In the second mapping phase, we transform the re-constructed image
data into sparse features, which are then optimized with a lightweight
multi-layer perceptron (MLP) model using the re-constructed illuminants as
ground truths. This approach effectively reduces sensor discrepancies and
delivers performance on par with leading cross-sensor methods. It only requires
a small amount of memory (~0.003 MB), and takes ~1 hour training on an
RTX3070Ti GPU. More importantly, the method can be implemented very fast, with
~0.3 ms and ~1 ms on a GPU or CPU respectively, and is not sensitive to the
input image resolution. Therefore, it offers a practical solution to the great
challenges of data recollection that is faced by the industry.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は照明推定に広く使われており、これは時間を要するため、センサ固有のデータ収集を必要とする。
提案手法では,D65条件下では,テストセンサからの単純な白点のみを必要とする。
これにより、マッピング行列を導出し、画像データと照度を再構成することができる。
第2のマッピングフェーズでは、再構成された画像データをスパースに変換し、再構成されたイルミナントを基底真理として、軽量な多層パーセプトロン(mlp)モデルで最適化する。
このアプローチは、センサの差異を効果的に低減し、主要なクロスセンサー手法と同等のパフォーマンスを提供する。
少量のメモリ(0.003 MB)しか必要とせず、RTX3070Ti GPUで1時間程度のトレーニングを行う。
さらに重要なことに、この手法はGPUやCPUでそれぞれ0.3msと1msで非常に高速に実装でき、入力画像の解像度に敏感ではない。
したがって、業界が直面するデータ記憶という大きな課題に対する実用的な解決策を提供する。
関連論文リスト
- Multi-Modal Multi-Task (3MT) Road Segmentation [0.8287206589886879]
我々は、多くのSOTA作業で通常行われているように、代わりに生のセンサー入力を使用することに重点を置いており、高い事前処理コストを必要とするアーキテクチャを活用している。
本研究では,複数センサからのデータをマルチタスク学習アーキテクチャに組み込むことにより,道路セグメンテーションの費用対効果,高精度なソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-23T08:15:15Z) - GenISP: Neural ISP for Low-Light Machine Cognition [19.444297600977546]
低照度環境では、原画像データを用いた物体検出器は、ISPパイプラインで処理された画像データを用いた検出器よりも堅牢である。
我々は、デバイスに依存しないカラー空間にカラー空間変換を明示的に組み込んだ、マシン認知のための最小限のニューラルISPパイプラインGenISPを提案する。
論文 参考訳(メタデータ) (2022-05-07T17:17:24Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - Non-imaging real-time detection and tracking of fast-moving objects [9.953550846380107]
高速移動物体検出と追跡をリアルタイムかつ長期にわたって実現するため,非撮像方式を提案する。
提案手法は1秒あたり105フレームの時間分解能を1.28%のサンプリングレートで達成できることを実験的に実証した。
この戦略は、各フレーム毎に1MB以上のデータを取得し、オブジェクトをリアルタイムに高速に移動させ、長期的な検出と追跡を可能にする。
論文 参考訳(メタデータ) (2021-08-13T01:07:51Z) - High-speed object detection with a single-photon time-of-flight image
sensor [2.648554238948439]
我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムの結果を報告する。
結果は、人間の反応時間よりも早く恩恵を受けるであろう安全クリティカルなコンピュータビジョンアプリケーションに関係している。
論文 参考訳(メタデータ) (2021-07-28T14:53:44Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Learning to Enhance Low-Light Image via Zero-Reference Deep Curve
Estimation [91.93949787122818]
深部ネットワークを用いた画像特異的曲線推定のタスクとして光強調を定式化するゼロ参照深部曲線推定(Zero-DCE)を提案する。
提案手法は,DCE-Netという軽量な深層ネットワークを訓練し,画像のダイナミックレンジ調整のための画素幅と高次曲線を推定する。
我々は、わずか10Kパラメータの小さなネットワークを利用するZero-DCE++と呼ばれる、加速された軽量バージョンのZero-DCEを紹介します。
論文 参考訳(メタデータ) (2021-03-01T09:21:51Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。