論文の概要: A Unified Generative-Predictive Framework for Deterministic Inverse Design
- arxiv url: http://arxiv.org/abs/2512.15746v1
- Date: Wed, 10 Dec 2025 18:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.65212
- Title: A Unified Generative-Predictive Framework for Deterministic Inverse Design
- Title(参考訳): 決定論的逆設計のための統一的生成予測フレームワーク
- Authors: Reza T. Batley, Sourav Saha,
- Abstract要約: この研究は、材料ミクロ構造の逆設計に対処するための統一的な生成予測フレームワークであるJanusを紹介する。
ヤヌスは、生成的反転のために同時に潜在多様体を学び、物理的予測のために刈り取られる。
前方予測精度は$R2=0.98$(2%相対誤差)で、画素単位の再現誤差は5%以下である。
- 参考スコア(独自算出の注目度): 0.9640442628926844
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Inverse design of heterogeneous material microstructures is a fundamentally ill-posed and famously computationally expensive problem. This is exacerbated by the high-dimensional design spaces associated with finely resolved images, multimodal input property streams, and a highly nonlinear forward physics. Whilst modern generative models excel at accurately modeling such complex forward behavior, most of them are not intrinsically structured to support fast, stable \emph{deterministic} inversion with a physics-informed bias. This work introduces Janus, a unified generative-predictive framework to address this problem. Janus couples a deep encoder-decoder architecture with a predictive KHRONOS head, a separable neural architecture. Topologically speaking, Janus learns a latent manifold simultaneously isometric for generative inversion and pruned for physical prediction; the joint objective inducing \emph{disentanglement} of the latent space. Janus is first validated on the MNIST dataset, demonstrating high-fidelity reconstruction, accurate classification and diverse generative inversion of all ten target classes. It is then applied to the inverse design of heterogeneous microstructures labeled with thermal conductivity. It achieves a forward prediction accuracy $R^2=0.98$ (2\% relative error) and sub-5\% pixelwise reconstruction error. Inverse solutions satisfy target properties to within $1\%$ relative error. Inverting a sweep through properties reveal smooth traversal of the latent manifold, and UMAP visualization confirms the emergence of a low-dimensional, disentangled manifold. By unifying prediction and generation within a single latent space, Janus enables real-time, physics-informed inverse microstructure generation at a lower computational cost typically associated with classical optimization-based approaches.
- Abstract(参考訳): 不均一材料マイクロ構造の逆設計は、根本的に不備であり、計算コストのかかる問題として有名である。
これは、微細に解決された画像、マルチモーダルな入力特性ストリーム、高非線形フォワード物理に関連する高次元設計空間によって悪化する。
現代の生成モデルは、そのような複雑な前方の挙動を正確にモデル化するのに優れているが、そのほとんどは、物理学的インフォームドバイアスによる高速で安定な 'emph{deterministic} インバージョンをサポートするために本質的には構造化されていない。
この研究は、この問題に対処するための統一的な生成予測フレームワークであるJanusを紹介している。
Janus氏は、予測可能なKHRONOSヘッドと、分離可能なニューラルアーキテクチャを備えたディープエンコーダデコーダアーキテクチャを結合している。
トポロジカルな言い方をすれば、ヤヌスは生成的反転のために同時に潜在多様体を学習し、物理的予測のためにプルーン(英語版)(pruned)し、潜在空間の 'emph{disentanglement} を誘導する共同目的を学習する。
ジャヌスはMNISTデータセットで最初に検証され、高忠実度再構成、正確な分類、および10のターゲットクラスの多様な生成反転を実証した。
その後、熱伝導率でラベル付けされた不均一なマイクロ構造の逆設計に適用される。
フォワード予測精度$R^2=0.98$(2\%相対誤差)とサブ5\%画素単位の再構成誤差を達成する。
逆解は目標特性を1\%$相対誤差で満たす。
プロパティのスイープを反転すると、潜在多様体の滑らかなトラバースが明らかとなり、UMAP視覚化は低次元の非交叉多様体の出現を確認する。
単一の潜在空間内での予測と生成を統一することにより、Janusは古典的な最適化に基づくアプローチに典型的に関連する計算コストの低い計算コストで、リアルタイムで物理インフォームドな逆マイクロ構造生成を可能にする。
関連論文リスト
- Reconstructing Multi-Scale Physical Fields from Extremely Sparse Measurements with an Autoencoder-Diffusion Cascade [38.28865883904372]
Cascaded Sensing (Cas-Sensing)は、自動エンコーダ拡散カスケードを統合する階層的な再構築フレームワークである。
マスクカスケード戦略で訓練された条件拡散モデルにより,大規模構造物に条件付された微細な詳細情報を生成する。
シミュレーションと実世界のデータセットの両方の実験により、Cas-Sensingは様々なセンサー構成と幾何学的境界をまたいでうまく一般化することを示した。
論文 参考訳(メタデータ) (2025-12-01T11:46:14Z) - Lotus-2: Advancing Geometric Dense Prediction with Powerful Image Generative Model [32.831576387973875]
安定, 高精度, 微粒な幾何的密度予測のための2段階決定的フレームワークを提案する。
特に、第1段階では、コア予測器は、クリーンデータ目的の単一ステップ決定論的定式化を採用する。
第2段階では、ディテールシャープナーは、コア予測器によって定義される多様体内で制約付き多段階整流補正を行う。
論文 参考訳(メタデータ) (2025-11-30T18:57:25Z) - Latent Iterative Refinement Flow: A Geometric-Constrained Approach for Few-Shot Generation [5.062604189239418]
少ショット生成に対する新しいアプローチであるLIRF(Latent Iterative Refinement Flow)を導入する。
LIRFは,新しいtextbfmanifold保存損失をトレーニングしたオートエンコーダを用いて,安定な潜伏空間を確立する。
このサイクルの中で、候補サンプルは幾何的テクスチャ補正演算子によって洗練される。
論文 参考訳(メタデータ) (2025-09-24T08:57:21Z) - Cycle-Consistent Helmholtz Machine: Goal-Seeded Simulation via Inverted Inference [5.234742752529437]
emphCycle-Consistent Helmholtz Machine (C$2$HM)を紹介する。
C$2$HM reframes inference as a emphgoal-seeded, emphasymmetric process grounded in structureed internal priors。
古典的償却推論に代わる生物学的にインスパイアされた代替手段を提供することにより、$C2$HMは生成モデリングを意図的シミュレーションとして再考する。
論文 参考訳(メタデータ) (2025-07-03T17:24:27Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。