論文の概要: Unlimited Resolution Image Generation with R2D2-GANs
- arxiv url: http://arxiv.org/abs/2003.01063v1
- Date: Mon, 2 Mar 2020 17:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:04:37.547626
- Title: Unlimited Resolution Image Generation with R2D2-GANs
- Title(参考訳): R2D2-GANを用いた無限解像度画像生成
- Authors: Marija Jegorova, Antti Ilari Karjalainen, Jose Vazquez, Timothy M.
Hospedales
- Abstract要約: 本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
- 参考スコア(独自算出の注目度): 69.90258455164513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a novel simulation technique for generating high
quality images of any predefined resolution. This method can be used to
synthesize sonar scans of size equivalent to those collected during a
full-length mission, with across track resolutions of any chosen magnitude. In
essence, our model extends Generative Adversarial Networks (GANs) based
architecture into a conditional recursive setting, that facilitates the
continuity of the generated images. The data produced is continuous,
realistically-looking, and can also be generated at least two times faster than
the real speed of acquisition for the sonars with higher resolutions, such as
EdgeTech. The seabed topography can be fully controlled by the user. The visual
assessment tests demonstrate that humans cannot distinguish the simulated
images from real. Moreover, experimental results suggest that in the absence of
real data the autonomous recognition systems can benefit greatly from training
with the synthetic data, produced by the R2D2-GANs.
- Abstract(参考訳): 本稿では,任意の解像度の高品質画像を生成するための新しいシミュレーション手法を提案する。
この方法は、全期間のミッションで収集されたものと同等の大きさのソナースキャンを合成し、任意の大きさのトラック解像度で合成することができる。
本モデルでは,gans(generative adversarial network)ベースのアーキテクチャを,生成画像の連続性を容易にする条件付き再帰的設定に拡張する。
生成されたデータは連続的でリアルに見え、EdgeTechのような高解像度のソナーの取得速度よりも少なくとも2倍高速に生成される。
海底地形は、使用者が完全に制御することができる。
視覚的評価テストは、人間がシミュレーション画像と実像を区別できないことを示す。
さらに,実データがない場合には,R2D2-GANが生成する合成データによる学習から,自律認識システムが大きな恩恵を受ける可能性が示唆された。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.88039242455039]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - A Model-data-driven Network Embedding Multidimensional Features for
Tomographic SAR Imaging [5.489791364472879]
多次元特徴量に基づくトモSARイメージングを実現するためのモデルデータ駆動型ネットワークを提案する。
画像シーンの多次元的特徴を効果的に向上するために、2つの2次元処理モジュール(畳み込みエンコーダ-デコーダ構造)を追加します。
従来のCS-based FISTA法とDL-based gamma-Net法と比較して,提案手法は良好な画像精度を有しつつ,完全性を向上させる。
論文 参考訳(メタデータ) (2022-11-28T02:01:43Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Unpaired Single-Image Depth Synthesis with cycle-consistent Wasserstein
GANs [1.0499611180329802]
実環境深度のリアルタイム推定は、様々な自律システムタスクにとって必須のモジュールである。
本研究では、生成型ニューラルネットワークの分野における最近の進歩を、教師なしの単一画像深度合成に活用する。
論文 参考訳(メタデータ) (2021-03-31T09:43:38Z) - Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion [0.0]
GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
論文 参考訳(メタデータ) (2021-02-10T18:46:17Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。