論文の概要: Few-Shot VLM-Based G-Code and HMI Verification in CNC Machining
- arxiv url: http://arxiv.org/abs/2512.11296v1
- Date: Fri, 12 Dec 2025 05:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.668274
- Title: Few-Shot VLM-Based G-Code and HMI Verification in CNC Machining
- Title(参考訳): CNC加工におけるFew-Shot VLMベースG符号とHMI検証
- Authors: Yasaman Hashem Pour, Nazanin Mahjourian, Vinh Nguyen,
- Abstract要約: CNCマシンの動作を学習するためには,手動Gコード生成が重要である。
Gコードの検証にはLLM(Large-Language Models)が使用される。
本稿では,G-code と HMI ディスプレイを同時評価し,エラーや安全性を検証した数ショットの VLM ベースの検証手法を提案する。
- 参考スコア(独自算出の注目度): 1.58261306379746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manual generation of G-code is important for learning the operation of CNC machines. Prior work in G-code verification uses Large-Language Models (LLMs), which primarily examine errors in the written programming. However, CNC machining requires extensive use and knowledge of the Human-Machine Interface (HMI), which displays machine status and errors. LLMs currently lack the capability to leverage knowledge of HMIs due to their inability to access the vision modality. This paper proposes a few-shot VLM-based verification approach that simultaneously evaluates the G-code and the HMI display for errors and safety status. The input dataset includes paired G-code text and associated HMI screenshots from a 15-slant-PRO lathe, including both correct and error-prone cases. To enable few-shot learning, the VLM is provided with a structured JSON schema based on prior heuristic knowledge. After determining the prompts, instances of G-code and HMI that either contain errors or are error free are used as few-shot examples to guide the VLM. The model was then evaluated in comparison to a zero-shot VLM through multiple scenarios of incorrect G-code and HMI errors with respect to per-slot accuracy. The VLM showed that few-shot prompting led to overall enhancement of detecting HMI errors and discrepancies with the G-code for more comprehensive debugging. Therefore, the proposed framework was demonstrated to be suitable for verification of manually generated G-code that is typically developed in CNC training.
- Abstract(参考訳): CNCマシンの動作を学習するためには,手動Gコード生成が重要である。
Gコードの検証にはLLM(Large-Language Models)が使われており、主にプログラムのエラーを調べる。
しかし、CNCの加工にはHuman-Machine Interface (HMI)の広範な使用と知識が必要であり、マシンの状態とエラーを表示する。
LLMは現在、視覚のモダリティにアクセスできないため、HMIの知識を活用する能力が欠如している。
本稿では,G-code と HMI ディスプレイを同時評価し,エラーや安全性を検証した数ショットの VLM ベースの検証手法を提案する。
入力データセットには、ペア化されたGコードテキストと、15ビットのPROラテからのHMIスクリーンショットが含まれている。
少数ショットの学習を可能にするため、VLMには、事前ヒューリスティックな知識に基づいて構造化されたJSONスキーマが提供される。
プロンプトを決定すると、エラーを含むかエラーフリーであるGコードとHMIのインスタンスが、VLMをガイドするいくつかの例として使用される。
その後、スロットごとの精度に関して、誤りG符号とHMI誤りの複数のシナリオを通してゼロショットVLMと比較して評価を行った。
VLMは、より包括的なデバッギングのために、少ないショットプロンプトにより、GコードでHMIエラーや不一致を検出するという全体的な改善につながったことを示した。
そこで,提案手法は,CNC訓練で通常開発される手動G符号の検証に適していることが実証された。
関連論文リスト
- Uncovering Systematic Failures of LLMs in Verifying Code Against Natural Language Specifications [0.6813925418351435]
大規模言語モデル(LLM)はソフトウェア開発において不可欠なツールとなり、要求工学、コード生成、レビュータスクに広く利用されている。
本稿では,LLMが自然言語の要求に適合するかどうかを評価する上で,体系的に失敗していることを明らかにする。
以上の結果から,LCMは要件を満たすことのできないコード実装や潜在的な欠陥を含むコード実装を誤って分類することが多いことが判明した。
論文 参考訳(メタデータ) (2025-08-17T13:07:26Z) - IFEvalCode: Controlled Code Generation [69.28317223249358]
本稿では,Code LLMの命令追従能力を改善するために,前方および後方制約生成を提案する。
IFEvalCodeは、7つのプログラミング言語の1.6Kテストサンプルからなる多言語ベンチマークである。
論文 参考訳(メタデータ) (2025-07-30T08:08:48Z) - Masked Language Models are Good Heterogeneous Graph Generalizers [54.08788279971086]
LLM4HGと呼ばれるマスケ言語モデリング手法
HGトークンの代わりにメタパスベースのシーケンスを使用して、構造的および意味的な情報を抽出する。
論文 参考訳(メタデータ) (2025-06-06T15:21:24Z) - GLLM: Self-Corrective G-Code Generation using Large Language Models with User Feedback [0.0]
GLLMは、ヒューマン可読なタスク記述とマシン実行可能なコードの間のギャップを埋めることによって、手作業によるGコード記述の課題に対処する。
Systemには、ドメイン固有のトレーニングデータとRetrieval-Augmented Generation (RAG)メカニズムによって強化された、微調整されたStarCoder-3Bモデルが含まれている。
論文 参考訳(メタデータ) (2025-01-29T11:40:46Z) - MCCoder: Streamlining Motion Control with LLM-Assisted Code Generation and Rigorous Verification [15.438969500630677]
大規模言語モデル(LLM)はコード生成において大きな可能性を証明している。
現在のAI支援モーションコントロールプログラミングの取り組みは、高レベル言語や関数ライブラリにはほとんど関心を示さず、PLCに重点を置いている。
動作制御コードを生成するためのLCMシステムであるMCCoderをソフトモーションコントローラと統合した。
論文 参考訳(メタデータ) (2024-10-19T16:46:21Z) - RGD: Multi-LLM Based Agent Debugger via Refinement and Generation Guidance [0.6062751776009752]
大規模言語モデル(LLM)は、コード生成タスクにおいて驚くべきポテンシャルを示しています。
LLMはタスク記述に基づいてコードを生成することができるが、精度は限られている。
コード生成と自動デバッグのためのLLMエージェントの新しいアーキテクチャ:Refinement and Guidancebug (RGD)を紹介する。
RGDはコード生成タスクを複数のステップに分割し、より明確なワークフローを確保し、自己回帰とフィードバックに基づいた反復的なコード改善を可能にする。
論文 参考訳(メタデータ) (2024-10-02T05:07:02Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - GenAudit: Fixing Factual Errors in Language Model Outputs with Evidence [64.95492752484171]
GenAudit - 文書基底タスクの事実チェック LLM 応答を支援するためのツール。
GenAuditは、レファレンス文書でサポートされていないクレームを修正したり削除したりすることでLCMレスポンスを編集することを提案し、また、サポートしているように見える事実の参照から証拠を提示する。
GenAuditは、さまざまなドメインから文書を要約する際に、8つの異なるLCM出力でエラーを検出することができる。
論文 参考訳(メタデータ) (2024-02-19T21:45:55Z) - Benchmarking Large Language Models for Automated Verilog RTL Code
Generation [21.747037230069854]
有用なVerilogを生成するために,大規模言語モデル(LLM)を特徴付ける。
機能解析のためのテストベンチと,Verilogコードの構文をテストするフローからなる評価フレームワークを構築した。
その結果,LLMの微調整結果は,構文的に正しいコードを生成する能力が高いことがわかった。
論文 参考訳(メタデータ) (2022-12-13T16:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。