論文の概要: MechStyle: Augmenting Generative AI with Mechanical Simulation to Create Stylized and Structurally Viable 3D Models
- arxiv url: http://arxiv.org/abs/2509.20571v1
- Date: Wed, 24 Sep 2025 21:24:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.594763
- Title: MechStyle: Augmenting Generative AI with Mechanical Simulation to Create Stylized and Structurally Viable 3D Models
- Title(参考訳): MechStyle: 機械シミュレーションで生成AIを増強して、スティル化され構造的に実行可能な3Dモデルを作る
- Authors: Faraz Faruqi, Amira Abdel-Rahman, Leandra Tejedor, Martin Nisser, Jiaji Li, Vrushank Phadnis, Varun Jampani, Neil Gershenfeld, Megan Hofmann, Stefanie Mueller,
- Abstract要約: 本稿では、3Dプリント可能なモデルのスタイリングを可能にするシステムであるMechStyleを紹介する。
MechStyleは、Finite Element Analysis (FEA)シミュレーションからフィードバックを得て、ジェネレーティブAIベースのスタイリングプロセスを拡張することで、これを達成している。
- 参考スコア(独自算出の注目度): 41.894466318046625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in Generative AI enable creators to stylize 3D models based on text prompts. These methods change the 3D model geometry, which can compromise the model's structural integrity once fabricated. We present MechStyle, a system that enables creators to stylize 3D printable models while preserving their structural integrity. MechStyle accomplishes this by augmenting the Generative AI-based stylization process with feedback from a Finite Element Analysis (FEA) simulation. As the stylization process modifies the geometry to approximate the desired style, feedback from the FEA simulation reduces modifications to regions with increased stress. We evaluate the effectiveness of FEA simulation feedback in the augmented stylization process by comparing three stylization control strategies. We also investigate the time efficiency of our approach by comparing three adaptive scheduling strategies. Finally, we demonstrate MechStyle's user interface that allows users to generate stylized and structurally viable 3D models and provide five example applications.
- Abstract(参考訳): Generative AIの最近の開発により、クリエイターはテキストプロンプトに基づいて3Dモデルをスタイリングできる。
これらの手法は3Dモデル形状を変え、一度作られたモデルの構造的整合性を損なう可能性がある。
筆者らは3Dプリント可能なモデルを、その構造的整合性を保ちながらスタイリングできるシステムMechStyleを紹介した。
MechStyleは、Finite Element Analysis (FEA)シミュレーションからフィードバックを得て、ジェネレーティブAIベースのスタイリングプロセスを拡張することで、これを達成している。
スタイル化プロセスは、所望のスタイルを近似するために幾何学を変更するため、FEAシミュレーションからのフィードバックは、応力が増大した領域への変更を減らす。
本研究では,3つのスタイリゼーション制御戦略を比較することで,FEAシミュレーションフィードバックの有効性を評価する。
また、3つの適応型スケジューリング戦略を比較することで,提案手法の時間効率についても検討する。
最後に、ユーザがスタイリングされ構造的に実行可能な3Dモデルを生成し、5つのサンプルアプリケーションを提供するMechStyleのユーザインターフェースをデモする。
関連論文リスト
- StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance [50.207322685527394]
StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-16T17:55:20Z) - 3D Stylization via Large Reconstruction Model [16.51306577413244]
本研究では,大規模な画像生成モデルにおける注意機構を利用して視覚的スタイルを捕捉・伝達する2次元スタイリング手法の成功から着想を得た。
視覚的スタイルの画像からそのようなブロックに特徴を注入することにより、シンプルで効果的な3D外観スタイリング法を開発する。
論文 参考訳(メタデータ) (2025-04-30T17:46:32Z) - TactStyle: Generating Tactile Textures with Generative AI for Digital Fabrication [15.156013274309018]
本稿では,3Dモデルに触覚特性を取り入れつつ,画像で3DモデルをスタイリングするシステムであるTactStyleを紹介する。
TactStyleは、修正された画像生成モデルを使用してこれを達成し、所定の表面テクスチャのための高さ場を生成する。
心理物理学的な実験では、3Dプリントした原材料とTactStyleの生成したテクスチャの触覚特性を評価した。
論文 参考訳(メタデータ) (2025-03-03T19:29:27Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [56.87134037463792]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - LeGO: Leveraging a Surface Deformation Network for Animatable Stylized Face Generation with One Example [5.999050119438177]
所望のトポロジを持つ高度にスタイリングされた3次元顔モデルを作成する方法を提案する。
提案手法は3DMMを用いて表面変形ネットワークをトレーニングし,その領域を微分可能なメッシュと方向CLIP損失を用いて対象に翻訳する。
ネットワークは、差別化可能なメッシュと指向的なCLIP損失を使用して、ターゲットのスタイルを模倣することにより、3Dフェイスメッシュのスタイリングを実現する。
論文 参考訳(メタデータ) (2024-03-22T14:20:54Z) - DreamStone: Image as Stepping Stone for Text-Guided 3D Shape Generation [105.97545053660619]
テキスト誘導型3次元形状生成手法DreamStoneを提案する。
画像を使ってテキストと形状のギャップを埋め、ペアのテキストと3Dデータを必要とせずに3Dの形状を生成する。
我々のアプローチは汎用的で柔軟でスケーラブルであり、様々なSVRモデルと容易に統合でき、生成空間を拡大し、生成忠実性を向上させることができる。
論文 参考訳(メタデータ) (2023-03-24T03:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。