論文の概要: Practical cross-sensor color constancy using a dual-mapping strategy
- arxiv url: http://arxiv.org/abs/2311.11773v1
- Date: Mon, 20 Nov 2023 13:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:37:09.058608
- Title: Practical cross-sensor color constancy using a dual-mapping strategy
- Title(参考訳): デュアルマッピング戦略を用いた実用的クロスセンサカラーコンステンシー
- Authors: Shuwei Yue and Minchen Wei
- Abstract要約: 提案手法では,D65条件下では,テストセンサからの単純な白点のみを必要とする。
第2のマッピングフェーズでは、再構成された画像データをスパースに変換し、軽量な多層パーセプトロン(MLP)モデルで最適化する。
このアプローチは、センサの相違を効果的に低減し、主要なクロスセンサー手法と同等の性能を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have been widely used for illumination
estimation, which is time-consuming and requires sensor-specific data
collection. Our proposed method uses a dual-mapping strategy and only requires
a simple white point from a test sensor under a D65 condition. This allows us
to derive a mapping matrix, enabling the reconstructions of image data and
illuminants. In the second mapping phase, we transform the re-constructed image
data into sparse features, which are then optimized with a lightweight
multi-layer perceptron (MLP) model using the re-constructed illuminants as
ground truths. This approach effectively reduces sensor discrepancies and
delivers performance on par with leading cross-sensor methods. It only requires
a small amount of memory (~0.003 MB), and takes ~1 hour training on an
RTX3070Ti GPU. More importantly, the method can be implemented very fast, with
~0.3 ms and ~1 ms on a GPU or CPU respectively, and is not sensitive to the
input image resolution. Therefore, it offers a practical solution to the great
challenges of data recollection that is faced by the industry.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は照明推定に広く使われており、これは時間を要するため、センサ固有のデータ収集を必要とする。
提案手法では,D65条件下では,テストセンサからの単純な白点のみを必要とする。
これにより、マッピング行列を導出し、画像データと照度を再構成することができる。
第2のマッピングフェーズでは、再構成された画像データをスパースに変換し、再構成されたイルミナントを基底真理として、軽量な多層パーセプトロン(mlp)モデルで最適化する。
このアプローチは、センサの差異を効果的に低減し、主要なクロスセンサー手法と同等のパフォーマンスを提供する。
少量のメモリ(0.003 MB)しか必要とせず、RTX3070Ti GPUで1時間程度のトレーニングを行う。
さらに重要なことに、この手法はGPUやCPUでそれぞれ0.3msと1msで非常に高速に実装でき、入力画像の解像度に敏感ではない。
したがって、業界が直面するデータ記憶という大きな課題に対する実用的な解決策を提供する。
関連論文リスト
- Multimodal Object Detection using Depth and Image Data for Manufacturing Parts [1.0819408603463427]
本研究では,赤緑色(RGB)カメラと3Dポイントクラウドセンサを組み合わせたマルチセンサシステムを提案する。
RGBと深度データの両方を処理するために,新しいマルチモーダルオブジェクト検出法を開発した。
その結果、マルチモーダルモデルは、確立されたオブジェクト検出基準に基づいて、深さのみのベースラインとRGBのみのベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-11-13T22:43:15Z) - bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - GenISP: Neural ISP for Low-Light Machine Cognition [19.444297600977546]
低照度環境では、原画像データを用いた物体検出器は、ISPパイプラインで処理された画像データを用いた検出器よりも堅牢である。
我々は、デバイスに依存しないカラー空間にカラー空間変換を明示的に組み込んだ、マシン認知のための最小限のニューラルISPパイプラインGenISPを提案する。
論文 参考訳(メタデータ) (2022-05-07T17:17:24Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - High-speed object detection with a single-photon time-of-flight image
sensor [2.648554238948439]
我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムの結果を報告する。
結果は、人間の反応時間よりも早く恩恵を受けるであろう安全クリティカルなコンピュータビジョンアプリケーションに関係している。
論文 参考訳(メタデータ) (2021-07-28T14:53:44Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。