論文の概要: Global Priors Guided Modulation Network for Joint Super-Resolution and
Inverse Tone-Mapping
- arxiv url: http://arxiv.org/abs/2208.06885v1
- Date: Sun, 14 Aug 2022 17:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:38:29.836764
- Title: Global Priors Guided Modulation Network for Joint Super-Resolution and
Inverse Tone-Mapping
- Title(参考訳): 超解像と逆トーン・マッピングのためのグローバル優先変調ネットワーク
- Authors: Gang He, Shaoyi Long, Li Xu, Chang Wu, Jinjia Zhou, Ming Sun, Xing
Wen, Yurong Dai
- Abstract要約: 超解像と逆トーンマッピング(SR-ITM)は、解像度とダイナミックレンジの画質に欠陥があるビデオの視覚的品質を高めることを目的としている。
共同SR-ITMのためのGPGMNet(Global Priors Guided modulation Network)を提案する。
提案モデルでは,PSNRでは0.64dB以上のパラメータが69$%少なく,3.1$times$スピードアップが可能である。
- 参考スコア(独自算出の注目度): 15.952088977088147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint super-resolution and inverse tone-mapping (SR-ITM) aims to enhance the
visual quality of videos that have quality deficiencies in resolution and
dynamic range. This problem arises when using 4K high dynamic range (HDR) TVs
to watch a low-resolution standard dynamic range (LR SDR) video. Previous
methods that rely on learning local information typically cannot do well in
preserving color conformity and long-range structural similarity, resulting in
unnatural color transition and texture artifacts. In order to tackle these
challenges, we propose a global priors guided modulation network (GPGMNet) for
joint SR-ITM. In particular, we design a global priors extraction module (GPEM)
to extract color conformity prior and structural similarity prior that are
beneficial for ITM and SR tasks, respectively. To further exploit the global
priors and preserve spatial information, we devise multiple global priors
guided spatial-wise modulation blocks (GSMBs) with a few parameters for
intermediate feature modulation, in which the modulation parameters are
generated by the shared global priors and the spatial features map from the
spatial pyramid convolution block (SPCB). With these elaborate designs, the
GPGMNet can achieve higher visual quality with lower computational complexity.
Extensive experiments demonstrate that our proposed GPGMNet is superior to the
state-of-the-art methods. Specifically, our proposed model exceeds the
state-of-the-art by 0.64 dB in PSNR, with 69$\%$ fewer parameters and
3.1$\times$ speedup. The code will be released soon.
- Abstract(参考訳): 超解像と逆トーンマッピング(SR-ITM)は、解像度とダイナミックレンジの画質に欠陥があるビデオの視覚的品質を高めることを目的としている。
この問題は、4K高ダイナミックレンジ(HDR)テレビを使用して低解像度の標準ダイナミックレンジ(LR SDR)ビデオを見るときに発生する。
局所的な情報を学習する以前の方法は、通常、色相似性と長距離構造相似性を保つのにうまくいき、不自然な色相転移とテクスチャのアーティファクトをもたらす。
これらの課題に対処するため,共同SR-ITMのためのGPGMNet(Global Priors Guided modulation Network)を提案する。
特に,色適合性前と構造類似性前とを抽出するグローバル事前抽出モジュール(GPEM)を設計し,それぞれIMMおよびSRタスクに有用である。
グローバルな事前情報をさらに活用し,空間情報を保存するため,空間的ピラミッド畳み込みブロック (SPCB) から空間的特徴マップと共有グローバルな事前情報によって変調パラメータが生成される中間的特徴変調のためのパラメータを複数設けた空間的変調ブロック (GSMB) を考案した。
これらの精巧な設計により、GPGMNetはより少ない計算量でより高い視覚的品質を達成することができる。
GPGMNetは最先端の手法よりも優れていることを示す。
具体的には,PSNRでは0.64dB以上のパラメータが69$\%,3.1$\times$スピードアップが提案されている。
コードはまもなくリリースされる。
関連論文リスト
- Global Spatial-Temporal Information-based Residual ConvLSTM for Video Space-Time Super-Resolution [29.74501891293423]
我々は、時空ビデオ超解像、すなわちGIRNetのための畳み込みニューラルネットワーク(CNN)を提案する。
高精度な特徴を生成するため,提案ネットワークは,特徴レベル時間モジュールと変形可能な畳み込みと,大域空間時空間情報に基づく残差畳み込み長短期記憶(convLSTM)を統合した。
Vimeo90Kデータセットの実験により,提案手法は,STARnet,TMNet,3DAttGAN上でのピーク信号対雑音比(1.45dB,1.14dB,0.02dB)において,最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2024-07-11T13:01:44Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - Sim-to-Real Grasp Detection with Global-to-Local RGB-D Adaptation [19.384129689848294]
本稿では,RGB-Dグリップ検出のシム・ツー・リアル問題に着目し,ドメイン適応問題として定式化する。
本稿では,RGBと深度データにおけるハイブリッドドメインギャップに対処し,マルチモーダルな特徴アライメントが不十分なグローバル・ローカルな手法を提案する。
論文 参考訳(メタデータ) (2024-03-18T06:42:38Z) - Enhancing Automatic Modulation Recognition through Robust Global Feature
Extraction [12.868218616042292]
変調信号は長時間の時間依存性を示す。
人間の専門家は星座図のパターンを分析し、変調スキームを分類する。
古典的な畳み込みベースのネットワークは、局所的な特徴を抽出することに長けているが、グローバルな関係を捉えるのに苦労している。
論文 参考訳(メタデータ) (2024-01-02T06:31:24Z) - Local-Global Transformer Enhanced Unfolding Network for Pan-sharpening [13.593522290577512]
パンシャーピングは,低分解能マルチスペクトル (LrMS) 画像の空間分解能を,対応するパンクロマティック (PAN) 画像の誘導により向上することを目的としている。
深層学習(DL)に基づくパンシャーピング法は有望な性能を達成しているが、そのほとんどは2倍の欠損を有する。
論文 参考訳(メタデータ) (2023-04-28T03:34:36Z) - Recursive Generalization Transformer for Image Super-Resolution [108.67898547357127]
本稿では,大域空間情報を捕捉し,高分解能画像に適した画像SRのための再帰一般化変換器(RGT)を提案する。
我々は,RG-SAと局所的自己意識を組み合わせることで,グローバルな文脈の活用を促進する。
我々のRGTは最近の最先端の手法よりも定量的に質的に優れている。
論文 参考訳(メタデータ) (2023-03-11T10:44:44Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - Temporal Modulation Network for Controllable Space-Time Video
Super-Resolution [66.06549492893947]
宇宙時間のビデオ超解像度は、低解像度と低フレームレートのビデオの空間的および時間的解像度を高めることを目指しています。
変形性畳み込み法は、有望なSTVSR性能を達成したが、トレーニング段階で事前に定義された中間フレームのみを推測することができた。
本稿では,任意の中間フレームを高精度な高分解能再構成で補間する時間変調ネットワーク(tmnet)を提案する。
論文 参考訳(メタデータ) (2021-04-21T17:10:53Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。