論文の概要: Unlimited Resolution Image Generation with R2D2-GANs
- arxiv url: http://arxiv.org/abs/2003.01063v1
- Date: Mon, 2 Mar 2020 17:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:04:37.547626
- Title: Unlimited Resolution Image Generation with R2D2-GANs
- Title(参考訳): R2D2-GANを用いた無限解像度画像生成
- Authors: Marija Jegorova, Antti Ilari Karjalainen, Jose Vazquez, Timothy M.
Hospedales
- Abstract要約: 本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
- 参考スコア(独自算出の注目度): 69.90258455164513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a novel simulation technique for generating high
quality images of any predefined resolution. This method can be used to
synthesize sonar scans of size equivalent to those collected during a
full-length mission, with across track resolutions of any chosen magnitude. In
essence, our model extends Generative Adversarial Networks (GANs) based
architecture into a conditional recursive setting, that facilitates the
continuity of the generated images. The data produced is continuous,
realistically-looking, and can also be generated at least two times faster than
the real speed of acquisition for the sonars with higher resolutions, such as
EdgeTech. The seabed topography can be fully controlled by the user. The visual
assessment tests demonstrate that humans cannot distinguish the simulated
images from real. Moreover, experimental results suggest that in the absence of
real data the autonomous recognition systems can benefit greatly from training
with the synthetic data, produced by the R2D2-GANs.
- Abstract(参考訳): 本稿では,任意の解像度の高品質画像を生成するための新しいシミュレーション手法を提案する。
この方法は、全期間のミッションで収集されたものと同等の大きさのソナースキャンを合成し、任意の大きさのトラック解像度で合成することができる。
本モデルでは,gans(generative adversarial network)ベースのアーキテクチャを,生成画像の連続性を容易にする条件付き再帰的設定に拡張する。
生成されたデータは連続的でリアルに見え、EdgeTechのような高解像度のソナーの取得速度よりも少なくとも2倍高速に生成される。
海底地形は、使用者が完全に制御することができる。
視覚的評価テストは、人間がシミュレーション画像と実像を区別できないことを示す。
さらに,実データがない場合には,R2D2-GANが生成する合成データによる学習から,自律認識システムが大きな恩恵を受ける可能性が示唆された。
関連論文リスト
- Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - A Model-data-driven Network Embedding Multidimensional Features for
Tomographic SAR Imaging [5.489791364472879]
多次元特徴量に基づくトモSARイメージングを実現するためのモデルデータ駆動型ネットワークを提案する。
画像シーンの多次元的特徴を効果的に向上するために、2つの2次元処理モジュール(畳み込みエンコーダ-デコーダ構造)を追加します。
従来のCS-based FISTA法とDL-based gamma-Net法と比較して,提案手法は良好な画像精度を有しつつ,完全性を向上させる。
論文 参考訳(メタデータ) (2022-11-28T02:01:43Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Any-resolution Training for High-resolution Image Synthesis [55.19874755679901]
生成モデルは、様々な大きさの自然画像であっても、一定の解像度で動作します。
すべてのピクセルが重要であり、そのネイティブ解像度で収集された可変サイズのイメージを持つデータセットを作成する、と我々は主張する。
ランダムなスケールでパッチをサンプリングし、可変出力解像度で新しいジェネレータを訓練するプロセスである。
論文 参考訳(メタデータ) (2022-04-14T17:59:31Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Unpaired Single-Image Depth Synthesis with cycle-consistent Wasserstein
GANs [1.0499611180329802]
実環境深度のリアルタイム推定は、様々な自律システムタスクにとって必須のモジュールである。
本研究では、生成型ニューラルネットワークの分野における最近の進歩を、教師なしの単一画像深度合成に活用する。
論文 参考訳(メタデータ) (2021-03-31T09:43:38Z) - Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion [0.0]
GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
論文 参考訳(メタデータ) (2021-02-10T18:46:17Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。