論文の概要: Design-Specification Tiling for ICL-based CAD Code Generation
- arxiv url: http://arxiv.org/abs/2603.12712v1
- Date: Fri, 13 Mar 2026 06:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.951889
- Title: Design-Specification Tiling for ICL-based CAD Code Generation
- Title(参考訳): ICLに基づくCADコード生成のための設計特定タイリング
- Authors: Yali Du, San-Zhuo Xi, Hui Sun, Ming Li,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成において顕著な能力を示しているが、訓練データが少ないため、CAD(Computer-Aided Design)コード生成のようなドメイン固有のタスクでは性能が低い。
本研究では,設計仕様におけるすべての要件を最大限に満たすことを目的とした,模範選択のための原則的目的として,知識満足度を提案する。
- 参考スコア(独自算出の注目度): 14.39975999842683
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities in code generation, yet they underperform on domain-specific tasks such as Computer-Aided Design (CAD) code generation due to scarce training data. In-Context Learning (ICL) offers a training-free alternative through task-specific exemplars. However, existing selection strategies prioritize similarity or point-wise diversity, often producing redundant selections that fail to satisfy the compositional requirements of complex CAD design specifications. In this work, we propose knowledge sufficiency as a principled objective for exemplar selection that aims to maximally satisfy all requirements within design specifications. To realize this objective, we introduce Design-Specification Tiling (DST), which quantifies knowledge sufficiency through a surrogate tiling ratio by extracting multi-granular design components and measuring the proportion of query components covered by selected exemplars. We demonstrate that maximizing this objective constitutes submodular maximization and provide a polynomial-time greedy algorithm with a (1-1/e)-approximation guarantee. Extensive experiments demonstrate that DST substantially improves CAD code generation quality, consistently outperforming existing exemplar selection strategies in ICL.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成において顕著な能力を示しているが、訓練データが少ないため、CAD(Computer-Aided Design)コード生成のようなドメイン固有のタスクでは性能が劣っている。
In-Context Learning (ICL)は、タスク固有の例を通して、トレーニングなしの代替手段を提供する。
しかし、既存の選択戦略は類似性や点幅の多様性を優先し、複雑なCAD設計仕様の構成要求を満たすことができない冗長な選択をしばしば生み出す。
本研究では,設計仕様におけるすべての要件を最大限に満たすことを目的とした,模範選択のための原則的目的として,知識満足度を提案する。
この目的を達成するために,複数粒状デザインコンポーネントを抽出し,選択した例によってカバーされるクエリコンポーネントの割合を測定することで,サロゲートタイリング比による知識満足度を定量化するDST(Design-Specification Tiling)を提案する。
この目的を最大化することは、部分モジュラー最大化を構成し、 (1-1/e)-近似を保証する多項式時間グリードアルゴリズムを提供することを示す。
大規模な実験により、DSTはCADコード生成の品質を大幅に改善し、ICLの既存の模範的選択戦略を一貫して上回っていることが示されている。
関連論文リスト
- Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - KITE: Kernelized and Information Theoretic Exemplars for In-Context Learning [30.471243464952625]
In-context Learning (ICL) は、大規模言語モデルを新しいデータに適応するための強力なパラダイムとして登場した。
本稿では,ICLにおけるサンプル選択の問題について,情報理論の原則的視点から検討する。
我々は,近似保証付きグリーディアルゴリズムを有効活用する,約部分モジュラーの原理的サロゲート目的を導出する。
論文 参考訳(メタデータ) (2025-09-19T06:50:03Z) - CORE: Constraint-Aware One-Step Reinforcement Learning for Simulation-Guided Neural Network Accelerator Design [3.549422886703227]
COREはシミュレーション誘導DSEのための制約対応一段階強化学習法である。
ニューラルネットワークアクセラレーターのハードウェアマッピング共同設計のためのCOREをインスタンス化する。
論文 参考訳(メタデータ) (2025-06-04T01:08:34Z) - Inverse Design in Distributed Circuits Using Single-Step Reinforcement Learning [10.495642893440351]
DCIDAは、ターゲット転送関数のほぼ最適設計サンプリングポリシーを学習する設計探索フレームワークである。
本実験では,DCIDA の Transformer ベースのポリシネットワークが設計誤差を大幅に低減することを示す。
論文 参考訳(メタデータ) (2025-06-02T02:31:52Z) - LayoutCoT: Unleashing the Deep Reasoning Potential of Large Language Models for Layout Generation [3.1627400208503653]
条件付きレイアウト生成は、ユーザが定義した制約から視覚的に魅力的でセマンティックに一貫性のあるレイアウトを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) の推論能力を活用する新しい手法として,検索型拡張生成(RAG) とChain-of-Thought (CoT) 技術の組み合わせを提案する。
我々は3つの条件付きレイアウト生成タスクにまたがる5つの公開データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-04-15T03:12:01Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models [55.01592097059969]
命令データセットの監視された微調整は、目覚ましいゼロショットの一般化能力を達成する上で重要な役割を担っている。
アクティブラーニングは、未ラベルのプールからアノテートするサンプルの有用なサブセットを特定するのに効果的である。
本研究では,能動学習の計算ボトルネックを回避するための実験設計を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:56:54Z) - COMET: A Comprehensive Cluster Design Methodology for Distributed Deep Learning Training [42.514897110537596]
現代のディープラーニング(DL)モデルは、トレーニングする専門的でハイエンドなノードの大規模なクラスタを必要とするサイズに成長しています。
このようなクラスタを設計してパフォーマンスと利用の両方を最大化します。
本稿では,並列化戦略と鍵クラスタリソースのプロビジョニングが分散DLトレーニングのパフォーマンスに与える影響を共同で研究する,総合的なクラスタ設計方法論とワークフローであるCOMETを紹介する。
論文 参考訳(メタデータ) (2022-11-30T00:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。