論文の概要: LLM4SFC: Sequential Function Chart Generation via Large Language Models
- arxiv url: http://arxiv.org/abs/2512.06787v1
- Date: Sun, 07 Dec 2025 11:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.529931
- Title: LLM4SFC: Sequential Function Chart Generation via Large Language Models
- Title(参考訳): LLM4SFC:大規模言語モデルによる逐次関数チャート生成
- Authors: Ofek Glick, Vladimir Tchuiev, Marah Ghoummaid, Michal Moshkovitz, Dotan Di-Castro,
- Abstract要約: LLM4SFCは産業関数の自然言語記述を受け取り、実行可能なSFCを提供する最初のフレームワークである。
我々は,LLM4SFCを,オープンソースとプロプライエタリの両方を用いて,自動製造プロジェクトから実世界のSFCのデータセット上で評価する。
- 参考スコア(独自算出の注目度): 11.156827035309407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) are increasingly used for synthesizing textual PLC programming languages like Structured Text (ST) code, other IEC 61131-3 standard graphical languages like Sequential Function Charts (SFCs) remain underexplored. Generating SFCs is challenging due to graphical nature and ST actions embedded within, which are not directly compatible with standard generation techniques, often leading to non-executable code that is incompatible with industrial tool-chains In this work, we introduce LLM4SFC, the first framework to receive natural-language descriptions of industrial workflows and provide executable SFCs. LLM4SFC is based on three components: (i) A reduced structured representation that captures essential topology and in-line ST and reduced textual verbosity; (ii) Fine-tuning and few-shot retrieval-augmented generation (RAG) for alignment with SFC programming conventions; and (iii) A structured generation approach that prunes illegal tokens in real-time to ensure compliance with the textual format of SFCs. We evaluate LLM4SFC on a dataset of real-world SFCs from automated manufacturing projects, using both open-source and proprietary LLMs. The results show that LLM4SFC reliably generates syntactically valid SFC programs effectively bridging graphical and textual PLC languages, achieving a generation generation success of 75% - 94%, paving the way for automated industrial programming.
- Abstract(参考訳): 大規模言語モデル (LLM) は構造化テキスト (ST) コードのようなテキスト PLC プログラミング言語の合成にますます使われているが、シークエンシャル関数チャート (SFC) のような他の IEC 61131-3 標準グラフィカル言語はいまだ未定である。
SFCの生成は、グラフィカルな性質と、標準生成技術と直接互換性がないSTアクションが組み込まれており、しばしば産業ツールチェーンと互換性のない実行不可能なコードにつながるため、困難である。
LLM4SFCは3つのコンポーネントに基づいている。
一 本質的トポロジー及びインラインSTを捉え、かつ、文章の冗長性を減少させる構造的表現
(II)SFCプログラミング規約に準拠した微調整・少数ショット検索強化世代(RAG)
(3)SFCのテキストフォーマットの遵守を確保するため,不正トークンをリアルタイムにプルークする構造化生成手法。
我々は,LLM4SFCを,オープンソースとプロプライエタリの両方を用いて,自動製造プロジェクトから実世界のSFCのデータセット上で評価する。
その結果、LLM4SFCは、グラフィカルおよびテキストPLC言語を効果的にブリッジする構文的に有効なSFCプログラムを確実に生成し、世代別75%から94%の成功を達成し、自動化産業プログラミングへの道を開いた。
関連論文リスト
- IFEvalCode: Controlled Code Generation [69.28317223249358]
本稿では,Code LLMの命令追従能力を改善するために,前方および後方制約生成を提案する。
IFEvalCodeは、7つのプログラミング言語の1.6Kテストサンプルからなる多言語ベンチマークである。
論文 参考訳(メタデータ) (2025-07-30T08:08:48Z) - SAFT: Structure-Aware Fine-Tuning of LLMs for AMR-to-Text Generation [50.277959544420455]
SAFTは、事前訓練された言語モデルにグラフトポロジーを注入する構造対応の微調整手法である。
変換されたAMRの磁気ラプラシアンから方向感応的な位置エンコーディングを計算する。
SAFTはAMR 3.0に新しい最先端を設定、ベースラインを3.5BLEU改善した。
論文 参考訳(メタデータ) (2025-07-15T18:12:57Z) - Position Paper: Programming Language Techniques for Bridging LLM Code Generation Semantic Gaps [3.61356888205659]
本稿では,大規模言語モデルにおける意味的ギャップを埋めるのに,プログラミング手法の原則的統合が不可欠であることを論じる。
PL技術は、LLM生成コードを統計的パターンマッチングから真に信頼性と信頼性の高いレベルまで高めることができる。
論文 参考訳(メタデータ) (2025-07-12T04:32:15Z) - DecoRTL: A Run-time Decoding Framework for RTL Code Generation with LLMs [0.0]
大規模言語モデル (LLM) は構造的あいまいさや意味的複雑さの領域において信頼性が低いことを示す。
本稿では,新しい実行時デコーディング戦略であるDecoRTLを紹介する。
私たちのアプローチは、追加のモデル微調整を必要とせずに、完全に推論時に動作します。
論文 参考訳(メタデータ) (2025-07-03T01:17:44Z) - AutoPLC: Generating Vendor-Aware Structured Text for Programmable Logic Controllers [9.209415852653386]
AutoPLCは、ベンダーが認識するSTコードを自動的に自然言語要求から生成できるフレームワークである。
Siemens TIA PortalとCODESYSプラットフォーム向けに実装されている。
AutoPLCは914タスクベンチマークで90%以上のコンパイル成功を実現しています。
論文 参考訳(メタデータ) (2024-12-03T12:05:56Z) - Training LLMs for Generating IEC 61131-3 Structured Text with Online Feedback [0.0]
本稿では,IEC 61131-3 構造化テキスト (ST) コード生成のための微調整 LLM へのアプローチを提案する。
このフレームワークは産業自動化アプリケーションに非常に適しており、最先端のモデルより優れている。
論文 参考訳(メタデータ) (2024-10-29T15:54:09Z) - TransLLaMa: LLM-based Simultaneous Translation System [18.27477980076409]
Decoderのみの大規模言語モデル(LLM)は,特別な"待機"トークンを生成することで,入力セグメンテーションを直接制御できることを示す。
これにより、別個の政策の必要性が排除され、LLMは英語とドイツ語と英語とロシア語のSiMTタスクを実行できるようになる。
また, GPT-4 などのクローズドソースモデルの評価を行い, 事前訓練をせずに SiMT タスクの実行を奨励する結果を示した。
論文 参考訳(メタデータ) (2024-02-07T07:39:27Z) - Symmetrical Linguistic Feature Distillation with CLIP for Scene Text
Recognition [77.93678598476149]
CLIP-OCR(Symmetrical Linguistic Feature Distillation framework)を新たに構築する。
CLIP画像エンコーダを逆CLIPテキストエンコーダでカスケードすることにより、画像からテキストまでの特徴フローで対称構造を構築する。
大規模な実験では、CLIP-OCRが6つのSTRベンチマークで平均精度93.8%で有効であることが示されている。
論文 参考訳(メタデータ) (2023-10-08T04:00:20Z) - Gloss-free Sign Language Translation: Improving from Visual-Language
Pretraining [56.26550923909137]
Gloss-Free Sign Language Translation (SLT) はドメイン横断性のために難しい課題である。
視覚言語事前学習(GFSLT-)に基づく新しいGross-free SLTを提案する。
i) コントラスト言語-画像事前学習とマスク付き自己教師付き学習を統合して,視覚的表現とテキスト的表現のセマンティックギャップをブリッジするプレタスクを作成し,マスク付き文を復元すること,(ii) 事前訓練されたビジュアルおよびテキストデコーダのパラメータを継承するエンコーダ-デコーダ-のような構造を持つエンドツーエンドアーキテクチャを構築すること,である。
論文 参考訳(メタデータ) (2023-07-27T10:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。