論文の概要: An LLM-powered Natural-to-Robotic Language Translation Framework with Correctness Guarantees
- arxiv url: http://arxiv.org/abs/2508.19074v1
- Date: Tue, 26 Aug 2025 14:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.884299
- Title: An LLM-powered Natural-to-Robotic Language Translation Framework with Correctness Guarantees
- Title(参考訳): 正確性保証付きLLMを利用した自然言語翻訳フレームワーク
- Authors: ZhenDong Chen, ZhanShang Nie, ShiXing Wan, JunYi Li, YongTian Cheng, Shuai Zhao,
- Abstract要約: 大規模言語モデル(LLM)は、特定のユーザタスクのためのロボット制御プログラムを生成するために、ロボット工学にますます導入されている。
本稿では,生成した制御プログラムの正当性検証を行う自然言語翻訳フレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.31829665216206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Large Language Models (LLM) are increasingly being deployed in robotics to generate robot control programs for specific user tasks, enabling embodied intelligence. Existing methods primarily focus on LLM training and prompt design that utilize LLMs to generate executable programs directly from user tasks in natural language. However, due to the inconsistency of the LLMs and the high complexity of the tasks, such best-effort approaches often lead to tremendous programming errors in the generated code, which significantly undermines the effectiveness especially when the light-weight LLMs are applied. This paper introduces a natural-robotic language translation framework that (i) provides correctness verification for generated control programs and (ii) enhances the performance of LLMs in program generation via feedback-based fine-tuning for the programs. To achieve this, a Robot Skill Language (RSL) is proposed to abstract away from the intricate details of the control programs, bridging the natural language tasks with the underlying robot skills. Then, the RSL compiler and debugger are constructed to verify RSL programs generated by the LLM and provide error feedback to the LLM for refining the outputs until being verified by the compiler. This provides correctness guarantees for the LLM-generated programs before being offloaded to the robots for execution, significantly enhancing the effectiveness of LLM-powered robotic applications. Experiments demonstrate NRTrans outperforms the existing method under a range of LLMs and tasks, and achieves a high success rate for light-weight LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特定のユーザタスクのためのロボット制御プログラムを生成するためにロボット工学に展開され、インテリジェンスを具現化している。
既存の手法は主にLLMのトレーニングと、LLMを利用して自然言語のユーザタスクから直接実行可能なプログラムを生成するプロンプト設計に重点を置いている。
しかし、LLMの不整合とタスクの複雑さのため、このような最善策は生成されたコードに重大なプログラミングエラーを引き起こすことが多く、特に軽量のLLMを適用する場合、その効果を著しく損なう。
本稿では,自然言語翻訳フレームワークについて紹介する。
(i)生成された制御プログラムに対する正当性検証及び
(II) プログラムのフィードバックに基づく微調整により, プログラム生成におけるLCMの性能を向上させる。
これを実現するために、ロボットスキル言語(RSL)が提案され、制御プログラムの複雑な詳細を抽象化し、基礎となるロボットスキルで自然言語タスクをブリッジする。
次に、LSLコンパイラとデバッガを構築し、LSMが生成したRSLプログラムを検証し、コンパイラが検証するまで出力を精算するためのLSMにエラーフィードバックを提供する。
これにより、LLM生成プログラムが実行のためにロボットにオフロードされる前に正確性を保証することができ、LLM駆動のロボットアプリケーションの有効性が著しく向上する。
NRTrans は LLM やタスクの範囲で既存手法よりも優れており,軽量 LLM では高い成功率を達成している。
関連論文リスト
- PRO-V: An Efficient Program Generation Multi-Agent System for Automatic RTL Verification [6.983135183126461]
Pro-Vは、堅牢なRTL検証のためのプログラム生成マルチエージェントシステムである。
生成したテストベンチの正しさを高めるため、効率的なn個の反復サンプリング戦略が組み込まれている。
Pro-Vは、黄金のRTL実装では87.17%、RTL変異では76.28%の精度で検証されている。
論文 参考訳(メタデータ) (2025-06-13T20:06:34Z) - An Effective Approach to Embedding Source Code by Combining Large Language and Sentence Embedding Models [6.976968804436321]
本稿では,大言語と文埋め込みモデルを組み合わせた新しいソースコード埋め込み手法を提案する。
提案手法の性能を評価するため,異なるプログラミング言語を用いた3つのデータセットについて一連の実験を行った。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Robo-Instruct: Simulator-Augmented Instruction Alignment For Finetuning Code LLMs [42.31298987176411]
プログラム実行中にタスク固有のシミュレーション環境をオンザフライで合成するROBO-INSTRUCTを提案する。
ROBO-INSTRUCT は LLM に支援された後処理の手順を統合し,ロボットプログラムとの整合性を向上する。
論文 参考訳(メタデータ) (2024-05-30T15:47:54Z) - Empowering Large Language Models on Robotic Manipulation with Affordance Prompting [23.318449345424725]
大規模な言語モデルは、制御シーケンスを適切に生成することで物理世界と相互作用することができない。
既存のLLMベースのアプローチでは、事前定義されたスキルや事前訓練されたサブ政治に頼ることでこの問題を回避することができる。
サブタスクプランナとモーションコントローラの両方をLLM+A(ffordance)と呼ぶフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:06:32Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。