論文の概要: RSINet: Inpainting Remotely Sensed Images Using Triple GAN Framework
- arxiv url: http://arxiv.org/abs/2202.05988v1
- Date: Sat, 12 Feb 2022 05:19:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 09:45:34.912264
- Title: RSINet: Inpainting Remotely Sensed Images Using Triple GAN Framework
- Title(参考訳): RSINet:トリプルGANフレームワークによるリモートセンシング画像のペイント
- Authors: Advait Kumar, Dipesh Tamboli, Shivam Pande, Biplab Banerjee
- Abstract要約: 本稿では,エッジ,色,テクスチャなどの画像の各側面に個別に焦点をあてる新しい塗装法を提案する。
個々のGANには、スペクトルと空間的特徴を明示的に抽出するアテンション機構も組み込まれている。
キャンバス上の2つのよく知られたリモートセンシングデータセット、Open Cities AIとEarthで、当社のモデルと過去の技術モデルの評価を行った。
- 参考スコア(独自算出の注目度): 13.613245876782367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the problem of image inpainting in the remote sensing domain.
Remote sensing images possess high resolution and geographical variations, that
render the conventional inpainting methods less effective. This further entails
the requirement of models with high complexity to sufficiently capture the
spectral, spatial and textural nuances within an image, emerging from its high
spatial variability. To this end, we propose a novel inpainting method that
individually focuses on each aspect of an image such as edges, colour and
texture using a task specific GAN. Moreover, each individual GAN also
incorporates the attention mechanism that explicitly extracts the spectral and
spatial features. To ensure consistent gradient flow, the model uses residual
learning paradigm, thus simultaneously working with high and low level
features. We evaluate our model, alongwith previous state of the art models, on
the two well known remote sensing datasets, Open Cities AI and Earth on Canvas,
and achieve competitive performance.
- Abstract(参考訳): リモートセンシング領域における画像インペインティングの問題に取り組む。
リモートセンシング画像は高解像度で地理的な変化があり、従来の塗装法では効果が低い。
これはさらに、画像内のスペクトル、空間的およびテクスト的ニュアンスを十分に捉えるための複雑さの高いモデルの必要性を伴い、その高い空間的変動から生じる。
そこで本稿では,タスク特定ganを用いて,エッジや色,テクスチャといった画像の各側面を個別に焦点をあてた新しいインペインティング手法を提案する。
さらに各ganは、スペクトルと空間の特徴を明示的に抽出するアテンション機構も組み込んでいる。
一貫した勾配フローを確保するため、モデルは残差学習パラダイムを使用し、ハイレベルと低レベルの機能を同時に扱う。
キャンバス上のOpen Cities AIとEarthという2つのよく知られたリモートセンシングデータセットに基づいて,我々のモデルと過去の技術モデルの評価を行い,競争力のあるパフォーマンスを実現した。
関連論文リスト
- Multi-Head Attention Residual Unfolded Network for Model-Based Pansharpening [2.874893537471256]
展開融合法は、ディープラーニングの強力な表現能力とモデルベースアプローチの堅牢性を統合する。
本稿では,衛星画像融合のためのモデルに基づく深部展開手法を提案する。
PRISMA、Quickbird、WorldView2データセットの実験結果から、本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-09-04T13:05:00Z) - HI-GAN: Hierarchical Inpainting GAN with Auxiliary Inputs for Combined
RGB and Depth Inpainting [3.736916304884176]
画像中のピクセルや領域を埋め込む。
既存の方法は、複数のカメラを必要とするデジタル交換技術に頼っている。
本稿では3つのGANを階層的に構成した新しいアプローチであるHI-GAN(Hierarchical Inpainting GAN)を提案する。
論文 参考訳(メタデータ) (2024-02-15T21:43:56Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - SSIF: Learning Continuous Image Representation for Spatial-Spectral
Super-Resolution [73.46167948298041]
本稿では,空間領域における連続画素座標とスペクトル領域における連続波長の両方の関数として,画像を表すニューラル暗黙モデルを提案する。
SSIFは空間分解能とスペクトル分解能の両方によく対応していることを示す。
ダウンストリームタスクのパフォーマンスを1.7%-7%向上させる高解像度画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-30T15:23:30Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。