論文の概要: Histogram Assisted Quality Aware Generative Model for Resolution Invariant NIR Image Colorization
- arxiv url: http://arxiv.org/abs/2601.01103v1
- Date: Sat, 03 Jan 2026 07:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.0323
- Title: Histogram Assisted Quality Aware Generative Model for Resolution Invariant NIR Image Colorization
- Title(参考訳): 解像度不変NIR画像色化のためのヒストグラム支援品質認識モデル
- Authors: Abhinav Attri, Rajeev Ranjan Dwivedi, Samiran Das, Vinod Kumar Kurmi,
- Abstract要約: 本稿では,分解能不変なNIR-to-RGBカラー化のための統一生成モデルHAQAGenを提案する。
提案モデルでは, (i) 異なるヒストグラムマッチング, 知覚的画像品質測定, テクスチャ情報を保存するための特徴に基づく類似性を通じて, グローバルな色統計を整合させる複合的損失項を導入する。
品質を犠牲にすることなく高分解能翻訳を可能にする適応分解能推論エンジンを導入する。
- 参考スコア(独自算出の注目度): 0.9064664319018063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present HAQAGen, a unified generative model for resolution-invariant NIR-to-RGB colorization that balances chromatic realism with structural fidelity. The proposed model introduces (i) a combined loss term aligning the global color statistics through differentiable histogram matching, perceptual image quality measure, and feature based similarity to preserve texture information, (ii) local hue-saturation priors injected via Spatially Adaptive Denormalization (SPADE) to stabilize chromatic reconstruction, and (iii) texture-aware supervision within a Mamba backbone to preserve fine details. We introduce an adaptive-resolution inference engine that further enables high-resolution translation without sacrificing quality. Our proposed NIR-to-RGB translation model simultaneously enforces global color statistics and local chromatic consistency, while scaling to native resolutions without compromising texture fidelity or generalization. Extensive evaluations on FANVID, OMSIV, VCIP2020, and RGB2NIR using different evaluation metrics demonstrate consistent improvements over state-of-the-art baseline methods. HAQAGen produces images with sharper textures, natural colors, attaining significant gains as per perceptual metrics. These results position HAQAGen as a scalable and effective solution for NIR-to-RGB translation across diverse imaging scenarios. Project Page: https://rajeev-dw9.github.io/HAQAGen/
- Abstract(参考訳): 本稿では,分解能不変なNIR-to-RGBカラー化のための統一生成モデルであるHAQAGenについて述べる。
提案モデルの導入
一 相違可能なヒストグラムマッチング、知覚的画質測定、テクスチャ情報を保存するための特徴に基づく類似性により、グローバルな色統計を整合させる複合損失項。
(II)空間適応的非正規化(SPADE)による色再現の安定化と局所的な色調変化
三 細部保存のため、マンバのバックボーン内のテクスチャを意識した監督。
品質を犠牲にすることなく高分解能翻訳を可能にする適応分解能推論エンジンを導入する。
提案したNIR-to-RGB翻訳モデルは,グローバルな色統計と局所色調整合を同時に適用すると同時に,テクスチャの忠実度や一般化を損なうことなく,ネイティブな解像度にスケールする。
FANVID, OMSIV, VCIP2020, RGB2NIR の様々な評価指標による広範囲な評価は、最先端のベースライン法よりも一貫した改善を示す。
HAQAGenは、よりシャープなテクスチャ、自然な色で画像を生成し、知覚のメトリクスによって大きく向上する。
これらの結果は、HAQAGenを多様な画像シナリオにわたるNIR-to-RGB翻訳のスケーラブルで効果的なソリューションとして位置づけている。
Project Page: https://rajeev-dw9.github.io/HAQAGen/
関連論文リスト
- Manifold-aware Representation Learning for Degradation-agnostic Image Restoration [135.90908995927194]
画像復元(IR)は、ノイズ、ぼかし、迷路、雨、低照度といった様々な汚職に影響を受ける劣化した入力から高品質な画像を復元することを目的としている。
我々は、入力特徴空間を3つのセマンティックに整列した並列分岐に明示的に分解する1つのIRにおいて、すべてに統一されたフレームワークであるMIRAGEを提案する。
このモジュラ分解は、多種多様な分解の一般化と効率を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-24T12:52:10Z) - Pix2Next: Leveraging Vision Foundation Models for RGB to NIR Image Translation [0.536022165180739]
RGB入力から高画質近赤外(NIR)画像を生成する新しい画像画像変換フレームワークPix2Nextを提案する。
マルチスケールのPatchGAN識別器は、様々な詳細レベルでリアルな画像生成を保証し、慎重に設計された損失関数は、グローバルなコンテキスト理解と局所的な特徴保存を結びつける。
提案手法により、追加のデータ取得やアノテーションの取り組みなしに、NIRデータセットのスケールアップが可能となり、NIRベースのコンピュータビジョンアプリケーションの進歩が加速する可能性がある。
論文 参考訳(メタデータ) (2024-09-25T07:51:47Z) - Learning Color Equivariant Representations [1.9594704501292781]
色変化に同値なグループ畳み込みニューラルネットワーク(GCNN)を導入する。
GCNNは、2次元と3次元の回転群からスケールのような半群への様々な幾何学的変換のために設計されている。
論文 参考訳(メタデータ) (2024-06-13T21:02:03Z) - IRSRMamba: Infrared Image Super-Resolution via Mamba-based Wavelet Transform Feature Modulation Model [7.842507196763463]
IRSRMambaはマルチスケール適応のためのウェーブレット変換特徴変調を統合する新しいフレームワークである。
IRSRMambaはPSNR、SSIM、知覚品質において最先端の手法より優れている。
この研究は、高忠実度赤外線画像強調のための有望な方向として、Mambaベースのアーキテクチャを確立する。
論文 参考訳(メタデータ) (2024-05-16T07:49:24Z) - NIR-Assisted Image Denoising: A Selective Fusion Approach and A Real-World Benchmark Dataset [53.79524776100983]
近赤外(NIR)画像を活用して、視認可能なRGB画像の復調を支援することで、この問題に対処する可能性を示している。
既存の作品では、NIR情報を効果的に活用して現実のイメージを飾ることに苦戦している。
先進デノナイジングネットワークにプラグイン・アンド・プレイ可能な効率的な選択核融合モジュール(SFM)を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:54:26Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Spectral Graphormer: Spectral Graph-based Transformer for Egocentric
Two-Hand Reconstruction using Multi-View Color Images [33.70056950818641]
マルチビューRGB画像から2つの高忠実度ハンドを再構成するトランスフォーマーベースの新しいフレームワークを提案する。
本研究では, 実データへの合成学習モデルの一般化を実証し, 現実的な両手再構成を実現できることを示す。
論文 参考訳(メタデータ) (2023-08-21T20:07:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。