論文の概要: BlenderLLM: Training Large Language Models for Computer-Aided Design with Self-improvement
- arxiv url: http://arxiv.org/abs/2412.14203v1
- Date: Mon, 16 Dec 2024 14:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:21.802871
- Title: BlenderLLM: Training Large Language Models for Computer-Aided Design with Self-improvement
- Title(参考訳): BlenderLLM:自己改善によるコンピュータ支援設計のための大規模言語モデルのトレーニング
- Authors: Yuhao Du, Shunian Chen, Wenbo Zan, Peizhao Li, Mingxuan Wang, Dingjie Song, Bo Li, Yan Hu, Benyou Wang,
- Abstract要約: 我々は,大規模言語モデル(LLM)をCAD(Computer-Aided Design)で訓練するフレームワークであるBlenderLLMを提案する。
以上の結果から,既存のモデルではCADスクリプトの正確な生成に重大な制限があることが明らかとなった。
命令ベースの微調整と反復的な自己改善によって、BlenderLLMはCADスクリプト生成の機能と精度の両方においてこれらのモデルを大幅に上回っている。
- 参考スコア(独自算出の注目度): 45.19076032719869
- License:
- Abstract: The application of Large Language Models (LLMs) in Computer-Aided Design (CAD) remains an underexplored area, despite their remarkable advancements in other domains. In this paper, we present BlenderLLM, a novel framework for training LLMs specifically for CAD tasks leveraging a self-improvement methodology. To support this, we developed a bespoke training dataset, BlendNet, and introduced a comprehensive evaluation suite, CADBench. Our results reveal that existing models demonstrate significant limitations in generating accurate CAD scripts. However, through minimal instruction-based fine-tuning and iterative self-improvement, BlenderLLM significantly surpasses these models in both functionality and accuracy of CAD script generation. This research establishes a strong foundation for the application of LLMs in CAD while demonstrating the transformative potential of self-improving models in advancing CAD automation. We encourage further exploration and adoption of these methodologies to drive innovation in the field. The dataset, model, benchmark, and source code are publicly available at https://github.com/FreedomIntelligence/BlenderLLM
- Abstract(参考訳): 大規模言語モデル(LLM)をCAD(Computer-Aided Design)に適用することは、他の領域で顕著な進歩を遂げたものの、まだ未発見の領域である。
本稿では,自己改善手法を活用したCADタスクに特化したLLMの学習フレームワークであるBlenderLLMを提案する。
これをサポートするため、我々はBlendNetという学習データセットを開発し、CADBenchという総合的な評価スイートを導入した。
以上の結果から,既存のモデルではCADスクリプトの正確な生成に重大な制限があることが明らかとなった。
しかし、命令ベースの微調整と反復的な自己改善によって、BlenderLLMはCADスクリプト生成の機能と精度の両方においてこれらのモデルを大幅に上回っている。
本研究は,CAD自動化の進展において,自己改善モデルの変革可能性を示すとともに,CADへのLLMの適用の強力な基盤を確立する。
この分野のイノベーションを促進するために、これらの方法論のさらなる探求と採用を奨励します。
データセット、モデル、ベンチマーク、ソースコードはhttps://github.com/FreedomIntelligence/BlenderLLMで公開されている。
関連論文リスト
- CAD-MLLM: Unifying Multimodality-Conditioned CAD Generation With MLLM [39.113795259823476]
マルチモーダル入力に条件付きパラメトリックCADモデルを生成可能な最初のシステムであるCAD-MLLMを導入する。
先進的な大規模言語モデル (LLM) を用いて,多様なマルチモーダルデータとCADモデルのベクトル化表現に特徴空間を整合させる。
得られたデータセットはOmni-CADと呼ばれ、CADモデル毎にテキスト記述、多視点画像、ポイント、コマンドシーケンスを含む最初のマルチモーダルCADデータセットである。
論文 参考訳(メタデータ) (2024-11-07T18:31:08Z) - CadVLM: Bridging Language and Vision in the Generation of Parametric CAD Sketches [24.239470848849418]
CAD(Parametric Computer-Aided Design)は、現代の機械設計の中心である。
CAD生成のためのエンド・ツー・エンドの視覚言語モデルであるCadVLMを提案する。
論文 参考訳(メタデータ) (2024-09-26T01:22:29Z) - Apple Intelligence Foundation Language Models [109.60033785567484]
本報告では、モデルアーキテクチャ、モデルトレーニングに使用されるデータ、トレーニングプロセス、評価結果について述べる。
私たちは、Responsible AIと、モデル開発全体を通して原則がどのように適用されているかに重点を置いています。
論文 参考訳(メタデータ) (2024-07-29T18:38:49Z) - OpenECAD: An Efficient Visual Language Model for Editable 3D-CAD Design [1.481550828146527]
OpenECADモデル(0.55B, 0.89B, 2.4B, 3.1B)を作成するための事前学習モデルの微調整を行った。
OpenECADモデルは、入力として3Dデザインの画像を処理することができ、高度に構造化された2Dスケッチと3D構築コマンドを生成する。
これらの出力は、プロジェクトファイルを生成するために既存のCADツールのAPIで直接使用することができる。
論文 参考訳(メタデータ) (2024-06-14T10:47:52Z) - Query2CAD: Generating CAD models using natural language queries [6.349503549199403]
本稿では,CAD設計のための新しいフレームワークであるQuery2CADを紹介する。
このフレームワークは大きな言語モデルを使用して実行可能なCADマクロを生成する。
Query2CADは、LLMをジェネレータと精錬器の両方として使用して、教師付きデータや追加のトレーニングなしで動作する。
論文 参考訳(メタデータ) (2024-05-31T19:17:00Z) - Geometric Deep Learning for Computer-Aided Design: A Survey [85.79012726689511]
本調査では,コンピュータ支援設計における学習手法の概要について概観する。
類似性解析と検索、2Dおよび3DCADモデル合成、点雲からのCAD生成を含む。
ベンチマークデータセットとその特性の完全なリストと、この領域の研究を推進しているオープンソースコードを提供する。
論文 参考訳(メタデータ) (2024-02-27T17:11:35Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - AutoCAD: Automatically Generating Counterfactuals for Mitigating
Shortcut Learning [70.70393006697383]
完全自動かつタスクに依存しないCAD生成フレームワークであるAutoCADについて述べる。
本稿では,完全に自動化されたタスクに依存しないCAD生成フレームワークであるAutoCADを提案する。
論文 参考訳(メタデータ) (2022-11-29T13:39:53Z) - How Does Counterfactually Augmented Data Impact Models for Social
Computing Constructs? [35.29235215101502]
本研究では、感情、性差別、ヘイトスピーチという3つのソーシャル・コンピューティング構造に着目し、社会的NLPモデルに対する反実的強化データ(CAD)の利点について検討する。
CADでトレーニングしたモデルではドメイン内性能が低下するが、ドメイン外性能は向上する。
論文 参考訳(メタデータ) (2021-09-14T23:46:39Z) - Quantitatively Assessing the Benefits of Model-driven Development in
Agent-based Modeling and Simulation [80.49040344355431]
本稿では,MDD とABMS プラットフォームの利用状況と開発ミスについて比較する。
その結果、MDD4ABMSはNetLogoと類似した設計品質のシミュレーションを開発するのに、より少ない労力を必要とすることがわかった。
論文 参考訳(メタデータ) (2020-06-15T23:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。