論文の概要: Image to Image Translation : Generating maps from satellite images
- arxiv url: http://arxiv.org/abs/2105.09253v1
- Date: Wed, 19 May 2021 16:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:54:48.636868
- Title: Image to Image Translation : Generating maps from satellite images
- Title(参考訳): 画像から画像への変換 : 衛星画像からの地図生成
- Authors: Vaishali Ingale, Rishabh Singh, Pragati Patwal
- Abstract要約: 衛星画像を対応する地図に変換するために画像から画像への変換を用いる。
生成対向ネットワーク、条件対向ネットワーク、共変オートエンコーダを用いる。
我々は、偽画像を生成するジェネレータモデルからなる条件付き生成適応ネットワークでモデルを訓練している。
- 参考スコア(独自算出の注目度): 18.276666800052006
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generation of maps from satellite images is conventionally done by a range of
tools. Maps became an important part of life whose conversion from satellite
images may be a bit expensive but Generative models can pander to this
challenge. These models aims at finding the patterns between the input and
output image. Image to image translation is employed to convert satellite image
to corresponding map. Different techniques for image to image translations like
Generative adversarial network, Conditional adversarial networks and
Co-Variational Auto encoders are used to generate the corresponding
human-readable maps for that region, which takes a satellite image at a given
zoom level as its input. We are training our model on Conditional Generative
Adversarial Network which comprises of Generator model which which generates
fake images while the discriminator tries to classify the image as real or fake
and both these models are trained synchronously in adversarial manner where
both try to fool each other and result in enhancing model performance.
- Abstract(参考訳): 衛星画像からの地図生成は、従来は様々なツールで行われている。
地図は、衛星画像からの変換が少々高価になるが、生成モデルは、この課題に直面する可能性がある。
これらのモデルは、入力画像と出力画像の間のパターンを見つけることを目的としている。
衛星画像を対応する地図に変換するために画像から画像への変換を用いる。
生成逆数ネットワーク、条件付き逆数ネットワーク、共変量オートエンコーダなどの画像から画像への変換のための異なる技術を用いて、その領域の対応する可読マップを生成し、その入力として衛星画像を所定のズームレベルで取得する。
我々は,偽画像を生成する生成モデルと,画像の識別者が本物か偽かのどちらかを分類しようとするかからなる条件付き生成敵ネットワーク上でモデルを訓練し,両者が互いに騙し合い,その結果,モデル性能の向上を図っている。
関連論文リスト
- Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - Conditional Progressive Generative Adversarial Network for satellite
image generation [0.7734726150561089]
画像生成タスクを、3つのコーナーのうち1つが欠落している画像の完了として定式化する。
次に、このアプローチを拡張して、同じレベルのディテールで大きなイメージを反復的に構築します。
我々のゴールは、衛星画像データセットで典型的に見られる高解像度のサンプルを生成するためのスケーラブルな方法論を得ることである。
論文 参考訳(メタデータ) (2022-11-28T13:33:53Z) - Dual Pyramid Generative Adversarial Networks for Semantic Image
Synthesis [94.76988562653845]
セマンティック画像合成の目標は、セマンティックラベルマップからフォトリアリスティック画像を生成することである。
しかし、現在の最先端のアプローチは、さまざまなスケールで画像で現実的なオブジェクトを生成するのに依然として苦労している。
本研究では,空間適応型正規化ブロックの条件付けを各スケールで同時に学習するDual Pyramid Generative Adversarial Network (DP-GAN)を提案する。
論文 参考訳(メタデータ) (2022-10-08T18:45:44Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - Semantic Segmentation of Medium-Resolution Satellite Imagery using
Conditional Generative Adversarial Networks [3.4797121357690153]
本稿では,高解像度衛星画像に対する画像と画像の変換手法として,CGAN(Conditional Generative Adversarial Networks)を提案する。
CGANモデルは、見当たらない不均衡なテストデータセットにおいて、同様の複雑性のCNNモデルよりもかなりのマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-05T18:18:45Z) - Procedural 3D Terrain Generation using Generative Adversarial Networks [0.0]
我々はGAN(Generative Adversarial Networks)を用いて、衛星やドローンが捉えた風景のリモートセンシング画像の分布に基づいて、現実的な3D環境を作り出す。
我々は、トレーニング中に提供されるリモートセンシングされた景観に関連して、高所分布と彩色が可能な3次元景観を構築することができる。
論文 参考訳(メタデータ) (2020-10-13T14:15:10Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。