論文の概要: Single Pair Cross-Modality Super Resolution
- arxiv url: http://arxiv.org/abs/2004.09965v4
- Date: Fri, 22 Jan 2021 16:17:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:38:40.955904
- Title: Single Pair Cross-Modality Super Resolution
- Title(参考訳): 単一対クロスモダリティ超解像
- Authors: Guy Shacht, Sharon Fogel, Dov Danon, Daniel Cohen-Or and Ilya
Leizerson
- Abstract要約: 高分解能のRGB画像が低分解能の高分解能化を補助するクロスモダリティ超解法が導入された。
従来の手法とは違って,弱い整列画像を扱うために設計されている,クロスモーダル超解法のためのディープネットワークであるCMSRを提案する。
CMSRは入力画像の解像度を上げることに成功し、RGBの相手から貴重な情報を得るが、アーチファクトや無関係な詳細を導入することなく保守的な方法で得られることを示す。
- 参考スコア(独自算出の注目度): 44.83283975852347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-visual imaging sensors are widely used in the industry for different
purposes. Those sensors are more expensive than visual (RGB) sensors, and
usually produce images with lower resolution. To this end, Cross-Modality
Super-Resolution methods were introduced, where an RGB image of a
high-resolution assists in increasing the resolution of the low-resolution
modality. However, fusing images from different modalities is not a trivial
task; the output must be artifact-free and remain loyal to the characteristics
of the target modality. Moreover, the input images are never perfectly aligned,
which results in further artifacts during the fusion process.
We present CMSR, a deep network for Cross-Modality Super-Resolution, which
unlike previous methods, is designed to deal with weakly aligned images. The
network is trained on the two input images only, learns their internal
statistics and correlations, and applies them to up-sample the target modality.
CMSR contains an internal transformer that is trained on-the-fly together with
the up-sampling process itself, without explicit supervision. We show that CMSR
succeeds to increase the resolution of the input image, gaining valuable
information from its RGB counterpart, yet in a conservative way, without
introducing artifacts or irrelevant details.
- Abstract(参考訳): 非視覚イメージングセンサーは業界で様々な目的で広く使われている。
これらのセンサーは、ビジュアル(RGB)センサーよりも高価で、通常解像度の低い画像を生成する。
この目的のために、高分解能のrgb画像が低分解能モードの解像度を増加させるクロスモダリティスーパーレゾリューション法が導入された。
しかし、異なるモダリティからイメージを融合させることは自明な作業ではなく、出力はアーティファクトフリーでなければならず、ターゲットのモダリティの特性に忠実でなければならない。
さらに、入力画像が完全に整列されることはなく、融合プロセス中にさらにアーティファクトが生じる。
我々は,従来手法と異なり,弱アライメント画像を扱うために設計された,クロスモダリティ・スーパーレゾリューションのためのディープネットワークcmsrを提案する。
ネットワークは2つの入力画像のみに基づいてトレーニングされ、内部統計と相関を学習し、ターゲットのモダリティをアップサンプリングする。
cmsrは、明示的な監督なしに、オンザフライでトレーニングされる内部トランスフォーマーを含んでいる。
CMSRは入力画像の解像度を上げることに成功し、RGBの相手から貴重な情報を得るが、アーチファクトや無関係な詳細を導入することなく保守的な方法で得られることを示す。
関連論文リスト
- Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Infrared Image Super-Resolution via Heterogeneous Convolutional WGAN [4.6667021835430145]
我々は、ヘテロジニアスカーネルベースの超解像ワッサースタインGAN(HetSRWGAN)をIR画像の超解像に用いるフレームワークを提案する。
HetSRWGANは定性評価と定量的評価の両方において一貫して優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-09-02T14:01:05Z) - Robust Reference-based Super-Resolution via C2-Matching [77.51610726936657]
超解像(Ref-SR)は、最近、高分解能(HR)参照画像を導入して、低分解能(LR)入力画像を強化するための有望なパラダイムとして登場した。
既存のRef-SR法は主に暗黙の対応に頼り、参照画像からHRテクスチャを借用し、入力画像の情報損失を補う。
本稿では,C2-Matchingを提案する。
論文 参考訳(メタデータ) (2021-06-03T16:40:36Z) - Low Resolution Information Also Matters: Learning Multi-Resolution
Representations for Person Re-Identification [37.01666917620271]
クロスレゾリューションされた人物のリIDは、オーバーラップされていないカメラから撮影した人物の画像をマッチングすることを目的としている。
emphtextbfMulti-Resolution textbfRepresentations textbfJoint textbfLearning (textbfMRJL)
提案手法は,分解能再構成ネットワーク(RRN)とDFFN(Dual Feature Fusion Network)から構成される。
論文 参考訳(メタデータ) (2021-05-26T16:54:56Z) - Discrete Cosine Transform Network for Guided Depth Map Super-Resolution [19.86463937632802]
目標は、高解像度(HR)RGB画像を使用してエッジとオブジェクトの輪郭に関する余分な情報を提供し、低解像度の深度マップをHR画像にアップサンプリングできるようにすることです。
本稿では,4つのコンポーネントから構成されるDCTNet(Digital Discrete Cosine Transform Network)を提案する。
本手法は,最新手法を越しに,正確かつ人事深度マップを生成できることを示した。
論文 参考訳(メタデータ) (2021-04-14T17:01:03Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - DDet: Dual-path Dynamic Enhancement Network for Real-World Image
Super-Resolution [69.2432352477966]
実画像超解像(Real-SR)は、実世界の高分解能画像(HR)と低分解能画像(LR)の関係に焦点を当てている。
本稿では,Real-SRのためのデュアルパス動的拡張ネットワーク(DDet)を提案する。
特徴表現のための大規模な畳み込みブロックを積み重ねる従来の手法とは異なり、非一貫性のある画像対を研究するためのコンテンツ認識フレームワークを導入する。
論文 参考訳(メタデータ) (2020-02-25T18:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。