論文の概要: GLLM: Self-Corrective G-Code Generation using Large Language Models with User Feedback
- arxiv url: http://arxiv.org/abs/2501.17584v1
- Date: Wed, 29 Jan 2025 11:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:55:12.515998
- Title: GLLM: Self-Corrective G-Code Generation using Large Language Models with User Feedback
- Title(参考訳): GLLM: ユーザフィードバック付き大規模言語モデルを用いた自己補正型Gコード生成
- Authors: Mohamed Abdelaal, Samuel Lokadjaja, Gilbert Engert,
- Abstract要約: GLLMは、ヒューマン可読なタスク記述とマシン実行可能なコードの間のギャップを埋めることによって、手作業によるGコード記述の課題に対処する。
Systemには、ドメイン固有のトレーニングデータとRetrieval-Augmented Generation (RAG)メカニズムによって強化された、微調整されたStarCoder-3Bモデルが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces GLLM, an innovative tool that leverages Large Language Models (LLMs) to automatically generate G-code from natural language instructions for Computer Numerical Control (CNC) machining. GLLM addresses the challenges of manual G-code writing by bridging the gap between human-readable task descriptions and machine-executable code. The system incorporates a fine-tuned StarCoder-3B model, enhanced with domain-specific training data and a Retrieval-Augmented Generation (RAG) mechanism. GLLM employs advanced prompting strategies and a novel self-corrective code generation approach to ensure both syntactic and semantic correctness of the generated G-code. The architecture includes robust validation mechanisms, including syntax checks, G-code-specific verifications, and functional correctness evaluations using Hausdorff distance. By combining these techniques, GLLM aims to democratize CNC programming, making it more accessible to users without extensive programming experience while maintaining high accuracy and reliability in G-code generation.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) を利用して,計算機数値制御(CNC) 加工のための自然言語命令から G-code を自動生成する革新的なツールである GLLM を紹介する。
GLLMは、ヒューマン可読なタスク記述とマシン実行可能なコードの間のギャップを埋めることによって、手作業によるGコード記述の課題に対処する。
このシステムには、ドメイン固有のトレーニングデータとRetrieval-Augmented Generation (RAG)メカニズムによって強化された、微調整されたStarCoder-3Bモデルが含まれている。
GLLMは、生成したGコードの構文的および意味的正当性を保証するために、高度なプロンプト戦略と、新しい自己修正コード生成アプローチを採用している。
このアーキテクチャには、構文チェック、Gコード固有の検証、ハウスドルフ距離を用いた機能的正当性評価など、堅牢な検証機構が含まれている。
これらの技術を組み合わせることで、GLLMはCNCプログラミングを民主化し、Gコード生成の精度と信頼性を維持しつつ、広範なプログラミング経験のないユーザにとってよりアクセスしやすいものにすることを目指している。
関連論文リスト
- GL-Fusion: Rethinking the Combination of Graph Neural Network and Large Language model [63.774726052837266]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を深く統合した新しいアーキテクチャを導入する。
本稿では,(1)GNNのメッセージパッシング機能を直接LLMのトランスフォーマー層に組み込む構造対応トランスフォーマー,(2)グラフノードとエッジから圧縮されていない全テキストを処理するグラフテキストクロスアテンション,(3)GNN-LLMツインプレクタ,(3)GNN-LLMツインプレクタ,3)GNNのスケーラブルなワンパス予測とともに,LLMの柔軟な自己回帰生成を実現する。
論文 参考訳(メタデータ) (2024-12-08T05:49:58Z) - RGD: Multi-LLM Based Agent Debugger via Refinement and Generation Guidance [0.6062751776009752]
大規模言語モデル(LLM)は、コード生成タスクにおいて驚くべきポテンシャルを示しています。
LLMはタスク記述に基づいてコードを生成することができるが、精度は限られている。
コード生成と自動デバッグのためのLLMエージェントの新しいアーキテクチャ:Refinement and Guidancebug (RGD)を紹介する。
RGDはコード生成タスクを複数のステップに分割し、より明確なワークフローを確保し、自己回帰とフィードバックに基づいた反復的なコード改善を可能にする。
論文 参考訳(メタデータ) (2024-10-02T05:07:02Z) - Towards Large Language Model Aided Program Refinement [10.089955747110444]
プログラムの洗練には、正式なハイレベルな仕様文から実行可能なプログラムへの正当性保存の変換が含まれる。
大型言語モデル(LLM)は、非公式な自然言語仕様から自動コード生成を可能にする。
LLM4PRは,形式的プログラム改善手法と非公式なLCMベースの手法を組み合わせたツールである。
論文 参考訳(メタデータ) (2024-06-26T04:29:27Z) - Adaptable Logical Control for Large Language Models [68.27725600175013]
Ctrl-Gは、推論時にモデル生成のトラクタブルでフレキシブルな制御を容易にする適応可能なフレームワークである。
TULU2-7Bモデルに適用したCtrl-Gは、インタラクティブテキスト編集のタスクにおいて、GPT3.5とGPT4より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-19T23:47:59Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - LLM can Achieve Self-Regulation via Hyperparameter Aware Generation [88.69052513433603]
大規模言語モデル (LLM) は、生成されたテキストを制御するために様々な復号法を用いる。
LLMはこれらのデコード戦略の存在を意識し、自己統制できるのか?
ハイパーパラメータ・アウェア・ジェネレーション(HAG)と呼ばれる新しいテキスト生成パラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-17T11:18:22Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Bridging Code Semantic and LLMs: Semantic Chain-of-Thought Prompting for
Code Generation [22.219645213202178]
本稿では,SeCoT というコードの意味情報を抽出する "Semantic Chain-of-Thought" 手法を提案する。
本研究では,SeCoTが最先端の性能を実現し,大規模モデルやコード生成の可能性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-10-16T05:09:58Z) - Towards Foundational AI Models for Additive Manufacturing: Language
Models for G-Code Debugging, Manipulation, and Comprehension [19.651885111151497]
3Dプリンティングは、デジタルモデルから物理的オブジェクトを作成できる革命的な技術である。
G-codeは低レベルの数値制御言語で、3Dプリンタに物質を移動・放出する方法を指示する。
G-codeは、G-codeフォーマットと印刷する部分の幾何学の統語的で意味的な理解を必要とする、困難なタスクである。
論文 参考訳(メタデータ) (2023-09-04T21:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。