論文の概要: Bit-depth color recovery via off-the-shelf super-resolution models
- arxiv url: http://arxiv.org/abs/2501.05611v1
- Date: Thu, 09 Jan 2025 23:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:26:43.802273
- Title: Bit-depth color recovery via off-the-shelf super-resolution models
- Title(参考訳): オフザシェルフ超解像モデルによるビット深色回復
- Authors: Xuanshuo Fu, Danna Xue, Javier Vazquez-Corral,
- Abstract要約: 画像から詳細な事前情報を抽出するために,超解像アーキテクチャを統合した新しい手法を提案する。
提案手法は最先端の手法よりも優れており,高忠実度色復元のための超解像の可能性を強調している。
- 参考スコア(独自算出の注目度): 4.536530093400348
- License:
- Abstract: Advancements in imaging technology have enabled hardware to support 10 to 16 bits per channel, facilitating precise manipulation in applications like image editing and video processing. While deep neural networks promise to recover high bit-depth representations, existing methods often rely on scale-invariant image information, limiting performance in certain scenarios. In this paper, we introduce a novel approach that integrates a super-resolution architecture to extract detailed a priori information from images. By leveraging interpolated data generated during the super-resolution process, our method achieves pixel-level recovery of fine-grained color details. Additionally, we demonstrate that spatial features learned through the super-resolution process significantly contribute to the recovery of detailed color depth information. Experiments on benchmark datasets demonstrate that our approach outperforms state-of-the-art methods, highlighting the potential of super-resolution for high-fidelity color restoration.
- Abstract(参考訳): 画像処理技術の進歩により、ハードウェアはチャネル当たり10ビットから16ビットをサポートし、画像編集やビデオ処理といったアプリケーションでの正確な操作を容易にする。
ディープニューラルネットワークは高いビット深度表現を回復することを約束するが、既存の手法はスケール不変の画像情報に依存し、特定のシナリオのパフォーマンスを制限する。
本稿では,超高分解能アーキテクチャを統合し,画像から詳細な事前情報を抽出する手法を提案する。
超解像過程で発生する補間データを活用することにより,細粒度カラーディテールの画素レベル回復を実現する。
さらに,超解像過程を通じて得られた空間的特徴が,詳細な色深度情報の回復に大きく寄与することを示した。
ベンチマークデータセットの実験では、我々の手法は最先端の手法よりも優れており、高忠実な色復元のための超解像の可能性を強調している。
関連論文リスト
- Research on Image Super-Resolution Reconstruction Mechanism based on Convolutional Neural Network [8.739451985459638]
超解像アルゴリズムは、同一シーンから撮影された1つ以上の低解像度画像を高解像度画像に変換する。
再構成過程における画像の特徴抽出と非線形マッピング手法は,既存のアルゴリズムでは依然として困難である。
目的は、高解像度の画像から高品質で高解像度の画像を復元することである。
論文 参考訳(メタデータ) (2024-07-18T06:50:39Z) - Learning Hierarchical Color Guidance for Depth Map Super-Resolution [168.1463802622881]
深度マップ超解像(DSR)を実現する階層カラー誘導ネットワークを提案する。
一方、低レベルのディテール埋め込みモジュールは、奥行き特徴の高周波カラー情報を補うように設計されている。
一方,再建過程における意味的一貫性を維持するため,高レベルの抽象的ガイダンスモジュールが提案されている。
論文 参考訳(メタデータ) (2024-03-12T03:44:46Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Super-Resolving Face Image by Facial Parsing Information [52.1267613768555]
顔超解像は、低解像度の顔画像を対応する高解像度の画像に変換する技術である。
我々は,低解像度の顔画像から先行する顔を抽出する,新しい解析マップ付き顔超解像ネットワークを構築した。
高解像度特徴はより正確な空間情報を含み、低解像度特徴は強い文脈情報を提供する。
論文 参考訳(メタデータ) (2023-04-06T08:19:03Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - Zoom-to-Inpaint: Image Inpainting with High-Frequency Details [39.582275854002994]
高分解能で精錬し、出力を元の解像度に縮小する超解像法を提案します。
精細化ネットワークに高精細画像を導入することで、スペクトルバイアスによって通常滑らかになる細部を再構築することができる。
当社のズームイン、精緻化、ズームアウト戦略は、高解像度の監視とプログレッシブラーニングと組み合わせることで、高周波の詳細を高めるためのフレームワークに依存しないアプローチを構成します。
論文 参考訳(メタデータ) (2020-12-17T05:39:37Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Multimodal Deep Unfolding for Guided Image Super-Resolution [23.48305854574444]
ディープラーニング手法は、低解像度の入力から高解像度の出力へのエンドツーエンドのマッピングを学習するために、トレーニングデータに依存する。
本稿では,スパース事前を組み込んだマルチモーダル深層学習設計を提案し,他の画像モダリティからの情報をネットワークアーキテクチャに効果的に統合する。
提案手法は,サイド情報を用いた畳み込みスパース符号化の反復的アルゴリズムに類似した,新しい展開演算子に依存している。
論文 参考訳(メタデータ) (2020-01-21T14:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。