論文の概要: Leveraging Multispectral Sensors for Color Correction in Mobile Cameras
- arxiv url: http://arxiv.org/abs/2512.08441v1
- Date: Tue, 09 Dec 2025 10:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.911614
- Title: Leveraging Multispectral Sensors for Color Correction in Mobile Cameras
- Title(参考訳): モバイルカメラにおける色補正のためのマルチスペクトルセンサの活用
- Authors: Luca Cogo, Marco Buzzelli, Simone Bianco, Javier Vazquez-Corral, Raimondo Schettini,
- Abstract要約: スナップショットマルチスペクトル(MS)イメージングの最近の進歩は、小型で低コストな分光センサを消費者やモバイルデバイス向けに実現している。
エンド・ツー・エンドの色補正を行う統合学習ベースのフレームワークを提案する。
提案手法は,RGBのみのベースラインやMS駆動ベースラインと比較して,誤差を最大50%低減する。
- 参考スコア(独自算出の注目度): 22.93423876118074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in snapshot multispectral (MS) imaging have enabled compact, low-cost spectral sensors for consumer and mobile devices. By capturing richer spectral information than conventional RGB sensors, these systems can enhance key imaging tasks, including color correction. However, most existing methods treat the color correction pipeline in separate stages, often discarding MS data early in the process. We propose a unified, learning-based framework that (i) performs end-to-end color correction and (ii) jointly leverages data from a high-resolution RGB sensor and an auxiliary low-resolution MS sensor. Our approach integrates the full pipeline within a single model, producing coherent and color-accurate outputs. We demonstrate the flexibility and generality of our framework by refactoring two different state-of-the-art image-to-image architectures. To support training and evaluation, we construct a dedicated dataset by aggregating and repurposing publicly available spectral datasets, rendering under multiple RGB camera sensitivities. Extensive experiments show that our approach improves color accuracy and stability, reducing error by up to 50% compared to RGB-only and MS-driven baselines. Datasets, code, and models will be made available upon acceptance.
- Abstract(参考訳): スナップショットマルチスペクトル(MS)イメージングの最近の進歩は、小型で低コストな分光センサを消費者やモバイルデバイス向けに実現している。
従来のRGBセンサよりもリッチなスペクトル情報をキャプチャすることで、これらのシステムは色補正を含む重要な画像処理タスクを強化することができる。
しかし、既存のほとんどの方法は色補正パイプラインを別々の段階で扱い、しばしばプロセスの早い段階でMSデータを破棄する。
我々は、統合された学習ベースのフレームワークを提案する。
(i)端から端までの色補正を行い、
(II)高分解能RGBセンサと補助低分解能MSセンサからのデータを共同で活用する。
当社のアプローチでは,完全なパイプラインを単一モデルに統合し,コヒーレントかつカラー精度の高い出力を生成する。
我々は2つの異なる最先端のイメージ・ツー・イメージアーキテクチャをリファクタリングすることで、フレームワークの柔軟性と汎用性を実証する。
トレーニングと評価を支援するため、複数のRGBカメラ感性に基づいて、公開されているデータセットを集約し、再取得することで、専用のデータセットを構築する。
広汎な実験により,RGBのみのベースラインやMS駆動ベースラインに比べて,色精度と安定性が向上し,誤差が最大50%削減された。
受け入れ次第、データセット、コード、モデルが利用可能になる。
関連論文リスト
- AuxDet: Auxiliary Metadata Matters for Omni-Domain Infrared Small Target Detection [49.81255045696323]
補助メタデータ駆動型赤外小型ターゲット検出器(AuxDet)について述べる。
AuxDetはメタデータセマンティクスと視覚的特徴を統合し、各サンプルに対する適応表現学習を導く。
挑戦的なWideIRSTD-Fullベンチマークの実験は、AuxDetが一貫して最先端のメソッドより優れていることを示した。
論文 参考訳(メタデータ) (2025-05-21T07:02:05Z) - Learned Lightweight Smartphone ISP with Unpaired Data [55.2480439325792]
学習可能な画像信号処理装置(ISP)のための新しいトレーニング手法を提案する。
我々の未経験アプローチは、敵の訓練によって導かれる多段階の損失関数を用いる。
ペア学習法と比較すると,我々の未経験学習戦略は強い可能性を示し,高い忠実性を実現する。
論文 参考訳(メタデータ) (2025-05-15T15:37:51Z) - Multispectral Demosaicing via Dual Cameras [29.349707272903835]
マルチスペクトル(MS)画像は、幅広いスペクトル帯域にわたる詳細なシーン情報をキャプチャする。
MSデータの処理において重要なステップはデモサイシングであり、カメラが捉えたモザイクMS画像から色情報を再構成する。
本稿では、RGBとMSの両方が同一シーンを撮影するデュアルカメラ用に特別に設計されたMS画像復調方法を提案する。
論文 参考訳(メタデータ) (2025-03-27T22:40:55Z) - Multi-Domain Biometric Recognition using Body Embeddings [51.36007967653781]
身体埋め込みは中波長赤外線(MWIR)領域と長波長赤外線(LWIR)領域の顔埋め込みよりも優れていた。
我々は、IJB-MDFデータセット上でのベンチマーク結果を確立するために、ビジョントランスフォーマーアーキテクチャを活用している。
また, クロスエントロピーとトリプルト損失の単純な組み合わせで, VISデータにのみ事前訓練された体モデルを微調整することで, 最先端のmAPスコアが得られることを示す。
論文 参考訳(メタデータ) (2025-03-13T22:38:18Z) - Joint RGB-Spectral Decomposition Model Guided Image Enhancement in Mobile Photography [36.4031416416813]
拡張を導いたRGBスペクトル分解モデルを提案する。
我々は,RGBと低分解能マルチスペクトル画像(Lr-MSI)のセナリティを活用し,シェーディング,反射率,物質意味の先行を予測した。
これらの事前情報は、ダイナミックレンジ拡張、カラーマッピング、グリッドエキスパート学習を促進するために、確立されたHDRNetにシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-25T12:43:41Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。