論文の概要: A Solver-Aided Hierarchical Language for LLM-Driven CAD Design
- arxiv url: http://arxiv.org/abs/2502.09819v1
- Date: Thu, 13 Feb 2025 23:31:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:48:05.710362
- Title: A Solver-Aided Hierarchical Language for LLM-Driven CAD Design
- Title(参考訳): LLM駆動CAD設計のためのソルバー支援階層型言語
- Authors: Benjamin T. Jones, Felix Hähnlein, Zihan Zhang, Maaz Ahmad, Vladimir Kim, Adriana Schulz,
- Abstract要約: 大規模言語モデル(LLM)は、多種多様な構造的および非構造的生成タスクの解決に成功している。
CAD(Computer Aided Design)における手続き幾何学の創出に苦慮している
本稿では,空間推論要求を幾何学的制約解決器にオフロードするAIDLという,問題解決支援型階層型ドメイン固有言語を提案する。
- 参考スコア(独自算出の注目度): 18.258735692299066
- License:
- Abstract: Large language models (LLMs) have been enormously successful in solving a wide variety of structured and unstructured generative tasks, but they struggle to generate procedural geometry in Computer Aided Design (CAD). These difficulties arise from an inability to do spatial reasoning and the necessity to guide a model through complex, long range planning to generate complex geometry. We enable generative CAD Design with LLMs through the introduction of a solver-aided, hierarchical domain specific language (DSL) called AIDL, which offloads the spatial reasoning requirements to a geometric constraint solver. Additionally, we show that in the few-shot regime, AIDL outperforms even a language with in-training data (OpenSCAD), both in terms of generating visual results closer to the prompt and creating objects that are easier to post-process and reason about.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多種多様な構造的および非構造的生成タスクを解くのに大いに成功したが、CAD(Computer Aided Design)において手続き幾何学を生成するのに苦労している。
これらの困難は、空間的推論を行うことができないことと、複雑な幾何学を生成するための複雑な長距離計画を通してモデルを導く必要性から生じる。
我々は,空間的推論要求を幾何学的制約解決器にオフロードするAIDLという,問題解決支援型階層型ドメイン固有言語(DSL)を導入することで,LCMによる生成CAD設計を可能にする。
さらに、AIDLはイントレーニングデータ(OpenSCAD)を持つ言語でさえも、プロンプトに近い視覚的な結果を生成し、後処理や推論が容易なオブジェクトを生成するという点で優れています。
関連論文リスト
- Oracular Programming: A Modular Foundation for Building LLM-Enabled Software [5.294604210205507]
大規模な言語モデルは、少数の例から幅広いタスクを解くのに驚くほど効果的であることが証明された。
信頼性とモジュラリティの欠如は、多くの推論ステップを必要とする大きな問題に対処する能力を制限する。
ドメインの専門家が高レベルな問題解決戦略を表現できるようにLCM対応アプリケーションを構築するための基礎パラダイムである分子プログラミングを提案する。
論文 参考訳(メタデータ) (2025-02-07T20:24:43Z) - HiVeGen -- Hierarchical LLM-based Verilog Generation for Scalable Chip Design [55.54477725000291]
HiVeGenは階層的なVerilog生成フレームワークで、生成タスクを階層的なサブモジュールに分解する。
自動設計空間探索(DSE)を階層対応のプロンプト生成に変換し、コードの再利用を強化するために重みに基づく検索を導入する。
エラー補正コストを低減し、生成した設計の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-12-06T19:37:53Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Mediating Modes of Thought: LLM's for design scripting [3.196599528747484]
大規模言語モデル(LLM)は、人間の文脈の一般的な理解を符号化し、幾何学的論理を生成する能力を示す。
このプロジェクトは、LLMがユーザの意図とアルゴリズムを効果的に仲介できれば、デザインにおけるスクリプト作成をより広く楽しくするための強力なツールになる、と推測している。
このようなシステムが、計算設計スクリプティングに関連する幾何学的操作を組み立てるための自然言語のプロンプトを解釈できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-11-20T02:49:18Z) - CAD-MLLM: Unifying Multimodality-Conditioned CAD Generation With MLLM [39.113795259823476]
マルチモーダル入力に条件付きパラメトリックCADモデルを生成可能な最初のシステムであるCAD-MLLMを導入する。
先進的な大規模言語モデル (LLM) を用いて,多様なマルチモーダルデータとCADモデルのベクトル化表現に特徴空間を整合させる。
得られたデータセットはOmni-CADと呼ばれ、CADモデル毎にテキスト記述、多視点画像、ポイント、コマンドシーケンスを含む最初のマルチモーダルCADデータセットである。
論文 参考訳(メタデータ) (2024-11-07T18:31:08Z) - Optimizing Token Usage on Large Language Model Conversations Using the Design Structure Matrix [49.1574468325115]
大規模言語モデルは、多くの分野やタスクにおいてユビキタスになる。
トークンの使用を減らすこと、短いコンテキストウィンドウ、限られた出力サイズ、トークンの取り込みと生成に関連するコストといった課題を克服する必要がある。
この作業は、エンジニアリング設計の分野からLLM会話最適化にデザイン構造マトリックスをもたらす。
論文 参考訳(メタデータ) (2024-10-01T14:38:36Z) - Diagram Formalization Enhanced Multi-Modal Geometry Problem Solver [11.69164802295844]
視覚的特徴,幾何学的形式言語,自然言語表現を統合した新しいフレームワークを提案する。
本稿では,新しい合成データ手法を提案し,形式的および自然言語のキャプションを付加した大規模幾何データセットSynthGeo228Kを提案する。
我々のフレームワークは,MLLMの幾何学図処理能力を改善し,フォーマルなgeo7kデータセット上のオープンなタスクに応用範囲を広げる。
論文 参考訳(メタデータ) (2024-09-06T12:11:06Z) - G-LLaVA: Solving Geometric Problem with Multi-Modal Large Language Model [124.68242155098189]
大規模言語モデル(LLM)は、人間レベルの推論と生成能力に顕著な習熟性を示している。
G-LLaVAは幾何学的問題の解法において例外的な性能を示し、7Bパラメータしか持たないMathVistaベンチマークにおいて GPT-4-V を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-18T17:36:20Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Examining Scaling and Transfer of Language Model Architectures for
Machine Translation [51.69212730675345]
言語モデル(LM)は単一のレイヤのスタックで処理し、エンコーダ・デコーダモデル(EncDec)は入力と出力の処理に別々のレイヤスタックを使用する。
機械翻訳において、EncDecは長年好まれてきたアプローチであるが、LMの性能についての研究はほとんどない。
論文 参考訳(メタデータ) (2022-02-01T16:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。