論文の概要: Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion
- arxiv url: http://arxiv.org/abs/2102.07708v1
- Date: Wed, 10 Feb 2021 18:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 14:55:28.994024
- Title: Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion
- Title(参考訳): GANに基づく次元展開による2次元スライスからの3次元構造生成
- Authors: Steve Kench, Samuel J. Cooper
- Abstract要約: GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks (GANs) can be trained to generate 3D image
data, which is useful for design optimisation. However, this conventionally
requires 3D training data, which is challenging to obtain. 2D imaging
techniques tend to be faster, higher resolution, better at phase identification
and more widely available. Here, we introduce a generative adversarial network
architecture, SliceGAN, which is able to synthesise high fidelity 3D datasets
using a single representative 2D image. This is especially relevant for the
task of material microstructure generation, as a cross-sectional micrograph can
contain sufficient information to statistically reconstruct 3D samples. Our
architecture implements the concept of uniform information density, which both
ensures that generated volumes are equally high quality at all points in space,
and that arbitrarily large volumes can be generated. SliceGAN has been
successfully trained on a diverse set of materials, demonstrating the
widespread applicability of this tool. The quality of generated micrographs is
shown through a statistical comparison of synthetic and real datasets of a
battery electrode in terms of key microstructural metrics. Finally, we find
that the generation time for a $10^8$ voxel volume is on the order of a few
seconds, yielding a path for future studies into high-throughput
microstructural optimisation.
- Abstract(参考訳): GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
しかし、従来は3dトレーニングデータが必要であり、取得が困難である。
2Dイメージング技術は、より高速で高解像度で、位相識別が良く、より広く利用できる傾向がある。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
これは、断面顕微鏡が3Dサンプルを統計的に再構築するための十分な情報を含むことができるため、材料の微細構造生成のタスクに特に関連しています。
このアーキテクチャは、生成したボリュームが空間のすべての点で等しく高品質であること、そして任意に大きなボリュームを生成できることを保証する均一な情報密度の概念を実装している。
スライスガンは様々な素材の訓練に成功し、このツールの広範な適用性を示している。
生成したマイクログラフの品質は、電池電極の合成データと実際のデータセットを、キーマイクロ構造指標を用いて統計的に比較して示される。
最後に、10^8ドルのvoxelボリュームの生成時間は数秒のオーダーであり、高スループットなマイクロ構造最適化への今後の研究の道筋となることがわかりました。
関連論文リスト
- GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Using convolutional neural networks for stereological characterization
of 3D hetero-aggregates based on synthetic STEM data [0.0]
パラメトリックな3Dモデルが提示され、そこから多数の仮想ヘテロアグリゲートが生成される。
仮想構造は、仮想走査透過電子顕微鏡(STEM)画像を生成するために物理シミュレーションツールに渡される。
畳み込みニューラルネットワークは、2次元STEM画像からヘテロアグリゲートの3次元構造を予測するために訓練される。
論文 参考訳(メタデータ) (2023-10-27T22:49:08Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - Neural Progressive Meshes [54.52990060976026]
本稿では,共有学習空間を用いた3次元メッシュの伝送手法を提案する。
分割型エンコーダ・デコーダアーキテクチャを用いて,この空間を学習する。
本手法は複雑な3次元形状を多種多様な形状で評価し, 圧縮率と復元品質の点で, ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-10T17:58:02Z) - GVP: Generative Volumetric Primitives [76.95231302205235]
本稿では,512解像度画像をリアルタイムにサンプリング・レンダリングできる最初の純3次元生成モデルである生成ボリュームプリミティブ(GVP)を提案する。
GVPは、複数のプリミティブとその空間情報を共同でモデル化し、どちらも2D畳み込みネットワークを介して効率的に生成することができる。
いくつかのデータセットの実験は、最先端技術よりも優れた効率性とGVPの3次元一貫性を示す。
論文 参考訳(メタデータ) (2023-03-31T16:50:23Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - MicroLib: A library of 3D microstructures generated from 2D micrographs
using SliceGAN [0.0]
3次元マイクロ構造データセットは、有限要素モデリングで使用される幾何学的領域を定義するために一般的に用いられる。
任意の大きさの3Dマイクロ構造データセットを統計的に生成する機械学習手法であるSliceGANを開発した。
生体材料から高強度鋼まで,87種類の組織にSliceGANを適用した結果について報告する。
論文 参考訳(メタデータ) (2022-10-12T19:13:28Z) - Improved $\alpha$-GAN architecture for generating 3D connected volumes
with an application to radiosurgery treatment planning [0.5156484100374059]
接続された3Dボリュームを生成するための3D$alpha$-GANの改良版を提案する。
我々のモデルは高品質な3D腫瘍ボリュームとそれに伴う治療仕様をうまく生成できる。
改良された3D$alpha$-GANは、合成医用画像データを生成する貴重な情報源となる。
論文 参考訳(メタデータ) (2022-07-13T16:39:47Z) - Super-resolution of multiphase materials by combining complementary 2D
and 3D image data using generative adversarial networks [0.0]
本稿では,一対の異なる相補的画像技術からの情報を組み合わせる手法を提案する。
具体的には,超解像,スタイル転送,次元展開を実現するために,深層畳み込み生成対向ネットワークを用いる。
提案手法の精度に自信を持ち,リチウムイオン電池電極の実際のデータ対に適用することで,そのパワーを実証する。
論文 参考訳(メタデータ) (2021-10-21T17:07:57Z) - 3DMaterialGAN: Learning 3D Shape Representation from Latent Space for
Materials Science Applications [7.449993399792031]
3DMaterialGANは、モルフォロジーが与えられた3D多結晶材料の微細構造に適合する個々の粒を認識合成することができる。
提案手法は, ベンチマークアノテートした3次元データセット上で, 最先端の3次元データよりも比較可能か, あるいは優れていることを示す。
この枠組みは多結晶材料の認識と合成の基礎を築いた。
論文 参考訳(メタデータ) (2020-07-27T21:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。