論文の概要: Self-Attending Task Generative Adversarial Network for Realistic
Satellite Image Creation
- arxiv url: http://arxiv.org/abs/2111.09463v1
- Date: Thu, 18 Nov 2021 00:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 23:01:21.728364
- Title: Self-Attending Task Generative Adversarial Network for Realistic
Satellite Image Creation
- Title(参考訳): 実写衛星画像作成のための自己獲得タスク生成支援ネットワーク
- Authors: Nathan Toner and Justin Fletcher
- Abstract要約: 本研究では, 空間オブジェクトの合成高コントラスト科学的イメージを増強するために, SATGAN(Self-attending Task Generative Adversarial Network)を導入する。
このアーキテクチャは、視覚的対象のインスタンスを減らし、文脈画像における意味的内容の難読化を図っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a self-attending task generative adversarial network (SATGAN)
and apply it to the problem of augmenting synthetic high contrast scientific
imagery of resident space objects with realistic noise patterns and sensor
characteristics learned from collected data. Augmenting these synthetic data is
challenging due to the highly localized nature of semantic content in the data
that must be preserved. Real collected images are used to train a network what
a given class of sensor's images should look like. The trained network then
acts as a filter on noiseless context images and outputs realistic-looking
fakes with semantic content unaltered. The architecture is inspired by
conditional GANs but is modified to include a task network that preserves
semantic information through augmentation. Additionally, the architecture is
shown to reduce instances of hallucinatory objects or obfuscation of semantic
content in context images representing space observation scenes.
- Abstract(参考訳): 本稿では,satgan(self-attending task generative adversarial network)を紹介し,現実的ノイズパターンとセンサ特性を有する居住空間オブジェクトの合成ハイコントラスト科学画像の拡張問題に適用する。
これらの合成データの強化は、保存しなければならないデータにおけるセマンティックコンテンツの高度にローカライズされた性質のために難しい。
実際の収集画像は、特定のセンサーのイメージがどのようなものになるかをネットワークにトレーニングするために使用される。
トレーニングされたネットワークは、ノイズのないコンテキストイメージのフィルタとして機能し、セマンティックコンテンツを変更せずに現実的な偽物を出力する。
アーキテクチャは条件付きGANにインスパイアされているが、拡張を通じて意味情報を保存するタスクネットワークを含むように修正されている。
さらに、このアーキテクチャは、空間観察シーンを表す文脈画像における幻覚的対象の例や意味的内容の難読化を減少させる。
関連論文リスト
- StableSemantics: A Synthetic Language-Vision Dataset of Semantic Representations in Naturalistic Images [5.529078451095096]
視覚シーンの意味を理解することはコンピュータビジョンの基本的な課題である。
テキストと画像のフレームワークの最近の進歩は、自然のシーン統計を暗黙的に捉えるモデルにつながっている。
提案するStableSemanticsは、224万件の人為的なプロンプト、処理された自然言語キャプション、200万以上の合成画像、そして個々の名詞のチャンクに対応する1000万のアテンションマップからなるデータセットである。
論文 参考訳(メタデータ) (2024-06-19T17:59:40Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Dual Pyramid Generative Adversarial Networks for Semantic Image
Synthesis [94.76988562653845]
セマンティック画像合成の目標は、セマンティックラベルマップからフォトリアリスティック画像を生成することである。
しかし、現在の最先端のアプローチは、さまざまなスケールで画像で現実的なオブジェクトを生成するのに依然として苦労している。
本研究では,空間適応型正規化ブロックの条件付けを各スケールで同時に学習するDual Pyramid Generative Adversarial Network (DP-GAN)を提案する。
論文 参考訳(メタデータ) (2022-10-08T18:45:44Z) - Panoptic Segmentation using Synthetic and Real Data [21.226582774172062]
本研究では,実環境と実物体の3次元モデルから合成画像を生成するパイプラインを提案する。
実験により、合成画像を使用することで、合理的なパノプティクスセグメンテーション性能を得るために必要な実画像の数を劇的に削減できることが示された。
論文 参考訳(メタデータ) (2022-04-14T16:01:48Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。