論文の概要: Fast and Scalable Earth Texture Synthesis using Spatially Assembled
Generative Adversarial Neural Networks
- arxiv url: http://arxiv.org/abs/2011.06776v1
- Date: Fri, 13 Nov 2020 06:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:55:23.889664
- Title: Fast and Scalable Earth Texture Synthesis using Spatially Assembled
Generative Adversarial Neural Networks
- Title(参考訳): 空間集合型生成逆ニューラルネットワークを用いた高速でスケーラブルな地球テクスチャ合成
- Authors: Sung Eun Kim, Hongkyu Yoon, and Jonghyun Lee
- Abstract要約: GAN(Generative Adversarial Neural Network)は、入力された音像を合成し、等質なジオマテリアル画像を作成する可能性を実証している。
本研究では,学習画像のサイズに関係なく任意の大きさの出力画像を生成できる空間集合型GANを提案する。
我々は、SAGANがトレーニング画像と同様の接続性と構造特性を持つ任意の大きさの統計的実現を生成できることを示し、また、単一のトレーニング画像でも様々な実現を生成できることを示した。
- 参考スコア(独自算出の注目度): 2.1028463367241033
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The earth texture with complex morphological geometry and compositions such
as shale and carbonate rocks, is typically characterized with sparse field
samples because of an expensive and time-consuming characterization process.
Accordingly, generating arbitrary large size of the geological texture with
similar topological structures at a low computation cost has become one of the
key tasks for realistic geomaterial reconstruction. Recently, generative
adversarial neural networks (GANs) have demonstrated a potential of
synthesizing input textural images and creating equiprobable geomaterial
images. However, the texture synthesis with the GANs framework is often limited
by the computational cost and scalability of the output texture size. In this
study, we proposed a spatially assembled GANs (SAGANs) that can generate output
images of an arbitrary large size regardless of the size of training images
with computational efficiency. The performance of the SAGANs was evaluated with
two and three dimensional (2D and 3D) rock image samples widely used in
geostatistical reconstruction of the earth texture. We demonstrate SAGANs can
generate the arbitrary large size of statistical realizations with connectivity
and structural properties similar to training images, and also can generate a
variety of realizations even on a single training image. In addition, the
computational time was significantly improved compared to standard GANs
frameworks.
- Abstract(参考訳): 複雑な形態幾何学とシェール岩や炭酸塩岩などの組成を持つ地球テクスチャは、費用がかかり、時間を要するキャラクタリゼーションプロセスのため、粗野のサンプルで特徴づけられる。
そこで, 計算コストの低い地形構造で任意の大きさの地質テクスチャを生成することが, 現実的な地盤復元の重要な課題となっている。
近年,gans(generative adversarial neural networks)は,入力テクスチャ画像の合成と等価なジオマテリアル画像の作成の可能性を実証している。
しかし、GANsフレームワークによるテクスチャ合成は、しばしば、出力テクスチャサイズの計算コストとスケーラビリティによって制限される。
本研究では,トレーニング画像のサイズに関わらず任意の大きさの出力画像を計算効率良く生成できる空間的に構成したgan(sagans)を提案する。
また,地球テクスチャの地球統計学的再構成に広く用いられている2次元および3次元の岩石試料を用いて,sagansの性能評価を行った。
そこで本研究では,sagansがトレーニング画像に類似した接続性や構造的特性を持つ統計的実現を任意に生成し,単一のトレーニング画像上でも様々な実現を生成できることを実証する。
さらに、標準のGANフレームワークに比べて計算時間が大幅に改善された。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Reconstructing Compact Building Models from Point Clouds Using Deep
Implicit Fields [4.683612295430956]
我々は点雲からコンパクトで水密な多角形建築モデルを再構築するための新しい枠組みを提案する。
合成および実世界の点雲の両方の実験により、我々の神経誘導戦略により、高品質な建築モデルは、忠実性、コンパクト性、計算効率において大きな利点をもって得られることが実証された。
論文 参考訳(メタデータ) (2021-12-24T21:32:32Z) - Neural Geometric Level of Detail: Real-time Rendering with Implicit 3D
Shapes [77.6741486264257]
本稿では,高忠実度ニューラルネットワークSDFのリアルタイムレンダリングを可能にする,効率的なニューラル表現を提案する。
我々の表現は、以前の作品に比べてレンダリング速度の点で2~3桁の効率であることを示す。
論文 参考訳(メタデータ) (2021-01-26T18:50:22Z) - SAFRON: Stitching Across the Frontier for Generating Colorectal Cancer
Histology Images [2.486942181212742]
合成画像は、データの限られた可用性という文脈でディープラーニングアルゴリズムの開発と評価に使用することができる。
本研究では,現実的で高解像度な組織画像タイルを構築するための新しいSAFRONフレームワークを提案する。
提案手法は,比較的小さな画像パッチでトレーニングした後,任意の大きさのリアルな画像タイルを生成することができることを示す。
論文 参考訳(メタデータ) (2020-08-11T05:47:00Z) - 3DMaterialGAN: Learning 3D Shape Representation from Latent Space for
Materials Science Applications [7.449993399792031]
3DMaterialGANは、モルフォロジーが与えられた3D多結晶材料の微細構造に適合する個々の粒を認識合成することができる。
提案手法は, ベンチマークアノテートした3次元データセット上で, 最先端の3次元データよりも比較可能か, あるいは優れていることを示す。
この枠組みは多結晶材料の認識と合成の基礎を築いた。
論文 参考訳(メタデータ) (2020-07-27T21:55:16Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。