論文の概要: Rethinking RGB Color Representation for Image Restoration Models
- arxiv url: http://arxiv.org/abs/2402.03399v1
- Date: Mon, 5 Feb 2024 06:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 18:38:18.310082
- Title: Rethinking RGB Color Representation for Image Restoration Models
- Title(参考訳): 画像復元モデルにおけるRGB色表現の再考
- Authors: Jaerin Lee, JoonKyu Park, Sungyong Baik and Kyoung Mu Lee
- Abstract要約: 各画素に局所的な近傍構造情報を保持するために表現を拡大する。
画素あたりの損失に対する表現空間の置換は、画像復元モデルのトレーニングを容易にする。
私たちの空間は、色と局所構造の両方を再構築することで、全体的なメトリクスを一貫して改善します。
- 参考スコア(独自算出の注目度): 55.81013540537963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image restoration models are typically trained with a pixel-wise distance
loss defined over the RGB color representation space, which is well known to be
a source of blurry and unrealistic textures in the restored images. The reason,
we believe, is that the three-channel RGB space is insufficient for supervising
the restoration models. To this end, we augment the representation to hold
structural information of local neighborhoods at each pixel while keeping the
color information and pixel-grainedness unharmed. The result is a new
representation space, dubbed augmented RGB ($a$RGB) space. Substituting the
underlying representation space for the per-pixel losses facilitates the
training of image restoration models, thereby improving the performance without
affecting the evaluation phase. Notably, when combined with auxiliary
objectives such as adversarial or perceptual losses, our $a$RGB space
consistently improves overall metrics by reconstructing both color and local
structures, overcoming the conventional perception-distortion trade-off.
- Abstract(参考訳): 画像復元モデルは、典型的にはrgb色表現空間上で定義された画素間距離損失で訓練されるが、これは復元された画像のぼやけた非現実的なテクスチャの源としてよく知られている。
その理由は、3チャンネルのRGB空間が復元モデルの監視に不十分であるからである。
この目的のために,色情報と画素粒度を損なうことなく,各画素の局所的な近傍の構造情報を保持する表現を補強する。
その結果、拡張RGB(a$RGB)空間と呼ばれる新しい表現空間が誕生した。
画素毎損失の基底表現空間を構成することにより、画像復元モデルのトレーニングが容易になり、評価フェーズに影響を与えずに性能が向上する。
特に、敵対的・知覚的損失などの補助的目的と組み合わせることで、我々の$a$RGB空間は、従来の知覚・歪曲トレードオフを克服し、色と局所構造の両方を再構築することで、全体的なメトリクスを一貫して改善します。
関連論文リスト
- Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - Spherical Space Feature Decomposition for Guided Depth Map
Super-Resolution [123.04455334124188]
誘導深度マップ超解像(GDSR)は、低解像度(LR)深度マップに高解像度(HR)RGB画像を含む追加情報を加えることを目的としている。
本稿では,この問題を解決するために,Spherical Space Feature Decomposition Network (SSDNet)を提案する。
提案手法は,4つのテストデータセットの最先端結果と実世界のシーンへの一般化を実現する。
論文 参考訳(メタデータ) (2023-03-15T21:22:21Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z) - RGB-D Image Inpainting Using Generative Adversarial Network with a Late
Fusion Approach [14.06830052027649]
Diminished Realityは、ビデオ画像からオブジェクトを取り除き、行方不明の領域を可視画素で埋めることを目的とした技術だ。
生成逆数ネットワークを用いたRGB-D画像の描画手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T14:44:01Z) - Learning RAW-to-sRGB Mappings with Inaccurately Aligned Supervision [76.41657124981549]
本稿では,画像アライメントとRAW-to-sRGBマッピングのための共同学習モデルを提案する。
実験の結果,本手法はZRRおよびSR-RAWデータセットの最先端に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-08-18T12:41:36Z) - Semantic-embedded Unsupervised Spectral Reconstruction from Single RGB
Images in the Wild [48.44194221801609]
この課題に対処するため、我々は、新しい軽量でエンドツーエンドの学習ベースのフレームワークを提案する。
我々は、効率的なカメラスペクトル応答関数推定により、検索されたHS画像から入力されたRGB画像と再投影されたRGB画像の差を徐々に広げる。
提案手法は最先端の教師なし手法よりも優れており,いくつかの設定下では最新の教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-15T05:19:44Z) - NormalGAN: Learning Detailed 3D Human from a Single RGB-D Image [34.79657678041356]
本稿では,1枚のRGB-D画像から完全かつ詳細な3次元人間を再構築する高速対角学習法を提案する。
一般消費者のRGB-Dセンサーを使用すれば、NurmalGANは20fpsで完全な3D人間の再構築結果を生成することができる。
論文 参考訳(メタデータ) (2020-07-30T09:35:46Z) - SPSG: Self-Supervised Photometric Scene Generation from RGB-D Scans [34.397726189729994]
SPSGは、RGB-Dスキャン観測から高品質で色のついたシーンの3Dモデルを生成するための新しいアプローチである。
我々の自己監督的アプローチは、不完全なRGB-Dスキャンと、そのスキャンのより完全なバージョンとを関連付けて、幾何学と色を共同で塗布することを学ぶ。
論文 参考訳(メタデータ) (2020-06-25T18:58:23Z) - Hierarchical Regression Network for Spectral Reconstruction from RGB
Images [21.551899202524904]
我々は,PixelShuffle層を用いた4レベル階層回帰ネットワーク(HRNet)を階層間相互作用として提案する。
NTIRE 2020 Challenge on Spectral Reconstruction from RGB Images に参加して,他のアーキテクチャや技術を用いたHRNetの評価を行った。
論文 参考訳(メタデータ) (2020-05-10T16:06:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。