論文の概要: 3DMaterialGAN: Learning 3D Shape Representation from Latent Space for
Materials Science Applications
- arxiv url: http://arxiv.org/abs/2007.13887v1
- Date: Mon, 27 Jul 2020 21:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:30:34.691960
- Title: 3DMaterialGAN: Learning 3D Shape Representation from Latent Space for
Materials Science Applications
- Title(参考訳): 3dmaterialgan: 潜在空間から3次元形状表現を学習する材料科学への応用
- Authors: Devendra K. Jangid, Neal R. Brodnik, Amil Khan, McLean P. Echlin,
Tresa M. Pollock, Sam Daly, B. S. Manjunath
- Abstract要約: 3DMaterialGANは、モルフォロジーが与えられた3D多結晶材料の微細構造に適合する個々の粒を認識合成することができる。
提案手法は, ベンチマークアノテートした3次元データセット上で, 最先端の3次元データよりも比較可能か, あるいは優れていることを示す。
この枠組みは多結晶材料の認識と合成の基礎を築いた。
- 参考スコア(独自算出の注目度): 7.449993399792031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of computer vision, unsupervised learning for 2D object
generation has advanced rapidly in the past few years. However, 3D object
generation has not garnered the same attention or success as its predecessor.
To facilitate novel progress at the intersection of computer vision and
materials science, we propose a 3DMaterialGAN network that is capable of
recognizing and synthesizing individual grains whose morphology conforms to a
given 3D polycrystalline material microstructure. This Generative Adversarial
Network (GAN) architecture yields complex 3D objects from probabilistic latent
space vectors with no additional information from 2D rendered images. We show
that this method performs comparably or better than state-of-the-art on
benchmark annotated 3D datasets, while also being able to distinguish and
generate objects that are not easily annotated, such as grain morphologies. The
value of our algorithm is demonstrated with analysis on experimental real-world
data, namely generating 3D grain structures found in a commercially relevant
wrought titanium alloy, which were validated through statistical shape
comparison. This framework lays the foundation for the recognition and
synthesis of polycrystalline material microstructures, which are used in
additive manufacturing, aerospace, and structural design applications.
- Abstract(参考訳): コンピュータビジョンの分野では、近年2次元オブジェクト生成のための教師なし学習が急速に進歩している。
しかし、3Dオブジェクト生成は、前者と同じ注意や成功に恵まれていない。
コンピュータビジョンと材料科学の交差点における新規な進歩を促進するため,形態が与えられた3次元多結晶材料の微細構造に適合する個々の粒の認識と合成が可能な3DMaterialGANネットワークを提案する。
このgan(generative adversarial network)アーキテクチャは、2dレンダリング画像からの追加情報のない確率的潜在空間ベクトルから複雑な3dオブジェクトを生成する。
本手法は,3dデータを用いたベンチマークにおいて,最先端の手法よりも比較可能あるいは優れた性能を示すとともに,粒度形態学などの注釈付けが容易でないオブジェクトを識別・生成できることを示す。
本手法は, 統計的形状比較により検証した, 市販のチタン合金中の3次元粒状構造を, 実世界の実験データを用いて解析し, 評価した。
この枠組みは、添加物製造、航空宇宙工学、構造設計に使用される多結晶材料の微細構造の認識と合成の基礎を成す。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - A Generative Machine Learning Model for Material Microstructure 3D
Reconstruction and Performance Evaluation [4.169915659794567]
2次元から3次元への次元展開は、現在の技術的観点から非常に難しい逆問題と見なされている。
U-netのマルチスケール特性とGANの生成能力を統合する新しい生成モデルが提案されている。
さらに、画像正規化損失とワッサーシュタイン距離損失を組み合わせることにより、モデルの精度をさらに向上する。
論文 参考訳(メタデータ) (2024-02-24T13:42:34Z) - MinD-3D: Reconstruct High-quality 3D objects in Human Brain [50.534007259536715]
Recon3DMindは、fMRI(Functional Magnetic Resonance Imaging)信号から3次元視覚を再構成するための革新的なタスクである。
このデータセットは14人の参加者のデータを含み、3Dオブジェクトの360度ビデオが特徴である。
我々は,脳の3次元視覚情報をfMRI信号から復号化するための,新規で効果的な3段階フレームワークMinD-3Dを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:21:36Z) - Using convolutional neural networks for stereological characterization
of 3D hetero-aggregates based on synthetic STEM data [0.0]
パラメトリックな3Dモデルが提示され、そこから多数の仮想ヘテロアグリゲートが生成される。
仮想構造は、仮想走査透過電子顕微鏡(STEM)画像を生成するために物理シミュレーションツールに渡される。
畳み込みニューラルネットワークは、2次元STEM画像からヘテロアグリゲートの3次元構造を予測するために訓練される。
論文 参考訳(メタデータ) (2023-10-27T22:49:08Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - MicroLib: A library of 3D microstructures generated from 2D micrographs
using SliceGAN [0.0]
3次元マイクロ構造データセットは、有限要素モデリングで使用される幾何学的領域を定義するために一般的に用いられる。
任意の大きさの3Dマイクロ構造データセットを統計的に生成する機械学習手法であるSliceGANを開発した。
生体材料から高強度鋼まで,87種類の組織にSliceGANを適用した結果について報告する。
論文 参考訳(メタデータ) (2022-10-12T19:13:28Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - 3D microstructural generation from 2D images of cement paste using generative adversarial networks [13.746290854403874]
本稿では, 単一の2次元(2次元)画像から3次元構造を生成可能な, 逆ネットワークに基づく生成手法を提案する。
本手法では,2次元断面画像から微細構造情報を学習することにより,3次元画像を合成するフレームワークを設計する。
視覚観察により、生成した3D画像は、同様の細孔分布や粒子形態を含む2D画像と類似した微細構造を示すことが確認された。
論文 参考訳(メタデータ) (2022-04-04T16:50:03Z) - Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion [0.0]
GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
論文 参考訳(メタデータ) (2021-02-10T18:46:17Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。