論文の概要: Bioinspired123D: Generative 3D Modeling System for Bioinspired Structures
- arxiv url: http://arxiv.org/abs/2603.29592v1
- Date: Wed, 11 Feb 2026 15:49:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.146767
- Title: Bioinspired123D: Generative 3D Modeling System for Bioinspired Structures
- Title(参考訳): バイオインスパイアされた123D: 生体インスパイアされた構造のための生成3次元モデリングシステム
- Authors: Rachel K. Luu, Markus J. Buehler,
- Abstract要約: パラメトリックプログラムを通じて製造可能な3D構造を直接生成する軽量かつモジュラーなコード・アズ・ジオメトリ・パイプラインであるBioinspired123Dを紹介する。
Bioinspired123Dの中核となるのが、Blender Pythonスクリプトに自然言語設計キューを翻訳するために微調整された、コンパクトな言語モデルであるBioinspired3Dである。
我々は,3次元幾何スクリプト生成のための新しいベンチマークの性能評価を行い,Bioinspired123Dが非微細化ベースモデルに対してほぼ4倍の改善を示した。
- 参考スコア(独自算出の注目度): 1.1458853556386797
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI has made rapid progress in text, image, and video synthesis, yet text-to-3D modeling for scientific design remains particularly challenging due to limited controllability and high computational cost. Most existing 3D generative methods rely on meshes, voxels, or point clouds which can be costly to train and difficult to control. We introduce Bioinspired123D, a lightweight and modular code-as-geometry pipeline that generates fabricable 3D structures directly through parametric programs rather than dense visual representations. At the core of Bioinspired123D is Bioinspired3D, a compact language model finetuned to translate natural language design cues into Blender Python scripts encoding smooth, biologically inspired geometries. We curate a domain-specific dataset of over 4,000 bioinspired and geometric design scripts spanning helical, cellular, and tubular motifs with parametric variability. The dataset is expanded and validated through an automated LLM-driven, Blender-based quality control pipeline. Bioinspired3D is then embedded in a graph-based agentic framework that integrates multimodal retrieval-augmented generation and a vision-language model critic to iteratively evaluate, critique, and repair generated scripts. We evaluate performance on a new benchmark for 3D geometry script generation and show that Bioinspired123D demonstrates a near fourfold improvement over its non-finetuned base model, while also outperforming substantially larger state-of-the-art language models despite using far fewer parameters and compute. By prioritizing code-as-geometry representations, Bioinspired123D enables compute-efficient, controllable, and interpretable text-to-3D generation, lowering barriers to AI driven scientific discovery in materials and structural design.
- Abstract(参考訳): 生成AIは、テキスト、画像、ビデオ合成を急速に進歩させたが、科学設計のためのテキストから3Dモデリングは、制御可能性の制限と高い計算コストのために、特に難しいままである。
既存の3D生成方法はメッシュやボクセル,あるいはポイントクラウドに依存しています。
我々は、高密度な視覚表現ではなく、パラメトリックなプログラムを通して、製造可能な3D構造を直接生成する軽量でモジュラーなコード・アズ・ジオメトリ・パイプラインであるBioinspired123Dを紹介した。
Bioinspired123Dのコアとなるのは、自然言語デザインキューをスムーズで生物学的にインスパイアされたジオメトリをコードするBlender Pythonスクリプトに変換するために微調整された、コンパクトな言語モデルであるBioinspired3Dである。
ヘリカル,細胞,管状モチーフにまたがる4,000以上のバイオインスパイアおよび幾何学的設計スクリプトのドメイン固有データセットをパラメトリックな変動性でキュレートする。
データセットは拡張され、自動LLM駆動のBlenderベースの品質管理パイプラインを通じて検証される。
バイオインスパイアされた3Dはグラフベースのエージェントフレームワークに埋め込まれ、マルチモーダル検索拡張生成と視覚言語モデル批判を統合し、生成したスクリプトを反復的に評価し、批判し、修復する。
我々は,3次元幾何スクリプト生成のための新しいベンチマークの性能評価を行い,Bioinspired123Dが非微細化ベースモデルに対してほぼ4倍の精度向上を示した。
コード・アズ・ジオメトリの表現を優先順位付けすることで、Bioinspired123Dは計算効率が高く、制御可能で、解釈可能なテキスト・トゥ・3D生成を可能にし、材料や構造設計におけるAI駆動の科学的発見に対する障壁を低くする。
関連論文リスト
- VIST3A: Text-to-3D by Stitching a Multi-view Reconstruction Network to a Video Generator [69.72818094722186]
テキスト・ビデオ・ジェネレータは「デコーダ」として3次元再構成システムと組み合わせることができる
私たちは、VIST3Aという、まさにそれを行う一般的なフレームワークを紹介します。
ビデオジェネレータと3次元再構成モデルを用いたVIST3A手法の評価を行った。
論文 参考訳(メタデータ) (2025-10-15T11:55:08Z) - End-to-End Fine-Tuning of 3D Texture Generation using Differentiable Rewards [8.953379216683732]
本稿では,人間のフィードバックを3次元テクスチャパイプラインに直接埋め込む,エンドツーエンドの微分可能・強化学習不要なフレームワークを提案する。
幾何学的および外見的モジュールによる好み信号のバックプロパゲーションにより、3次元幾何学的構造を尊重し、所望の基準と整合するテクスチャを生成する。
論文 参考訳(メタデータ) (2025-06-23T06:24:12Z) - Step1X-3D: Towards High-Fidelity and Controllable Generation of Textured 3D Assets [90.99212668875971]
Step1X-3Dは、データの不足、アルゴリズムの制限、エコシステムの断片化といった課題に対処するオープンフレームワークである。
拡散型テクスチャ合成モジュールとハイブリッドVAE-DiTジオメトリジェネレータを組み合わせた2段階の3Dネイティブアーキテクチャを提案する。
ベンチマークの結果は、既存のオープンソースメソッドを超える最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-12T16:56:30Z) - Eval3D: Interpretable and Fine-grained Evaluation for 3D Generation [134.53804996949287]
生成した3D資産の品質を忠実に評価できる細粒度で解釈可能な評価ツールであるEval3Dを紹介する。
我々のキーとなる観察は、意味論や幾何学的整合性といった3D生成の多くの望ましい特性を効果的に捉えられることである。
以前の研究と比較すると、Eval3Dはピクセル単位での測定を行い、正確な3D空間フィードバックを可能にし、人間の判断とより密に一致させる。
論文 参考訳(メタデータ) (2025-04-25T17:22:05Z) - Structured 3D Latents for Scalable and Versatile 3D Generation [28.672494137267837]
汎用的で高品質な3Dアセット作成のための新しい3D生成手法を提案する。
基本となるのは、異なる出力フォーマットへのデコードを可能にする、構造化されたLATent表現である。
これは、疎人口の少ない3Dグリッドと、強力な視覚基盤モデルから抽出された濃密な多視点視覚特徴を統合することで実現される。
論文 参考訳(メタデータ) (2024-12-02T13:58:38Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - L3GO: Language Agents with Chain-of-3D-Thoughts for Generating
Unconventional Objects [53.4874127399702]
本稿では,3Dメッシュ生成を推論可能な3Dメッシュ生成手法であるL3GO(チェーン・オブ・3D思想)を用いた言語エージェントを提案する。
我々は,新しいベンチマークである Unconventionally Feasible Objects (UFO) と,Blender上に構築されたSimpleBlenv を開発した。
提案手法は,ShapeNet上での3Dメッシュ生成のための標準GPT-4および他の言語エージェントを上回る。
論文 参考訳(メタデータ) (2024-02-14T09:51:05Z) - IM-3D: Iterative Multiview Diffusion and Reconstruction for High-Quality
3D Generation [96.32684334038278]
本稿では,テキスト・ツー・3Dモデルの設計空間について検討する。
画像生成装置の代わりに映像を考慮し、マルチビュー生成を大幅に改善する。
IM-3Dは,2次元ジェネレータネットワーク10-100xの評価回数を削減する。
論文 参考訳(メタデータ) (2024-02-13T18:59:51Z) - ControlDreamer: Blending Geometry and Style in Text-to-3D [34.92628800597151]
我々は、慎重にキュレートされたテキストコーパスからデータセットに基づいて訓練された、新しい深度対応多視点拡散モデルであるMulti-view ControlNetを紹介する。
マルチビューコントロールネットは、2段階のパイプラインであるControlDreamerに統合され、テキストガイドによるスタイリングされた3Dモデルの生成を可能にします。
論文 参考訳(メタデータ) (2023-12-02T13:04:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。