論文の概要: Achieving Scalable Robot Autonomy via neurosymbolic planning using lightweight local LLM
- arxiv url: http://arxiv.org/abs/2505.08492v1
- Date: Tue, 13 May 2025 12:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.55009
- Title: Achieving Scalable Robot Autonomy via neurosymbolic planning using lightweight local LLM
- Title(参考訳): 軽量局所LLMを用いたニューロシンボリックプランニングによるスケーラブルロボット自律性の実現
- Authors: Nicholas Attolino, Alessio Capitanelli, Fulvio Mastrogiovanni,
- Abstract要約: Gideonは、コンテキスト長が拡張された、現代的で、より小さく、ローカルなLLMへの移行を可能にする、新しいフレームワークである。
Qwen-2.5 1.5Bで実施され、8k-32kサンプルで訓練された単一ドメインシナリオの予備実験では、66.1%の有効なプランパーセンテージが示されている。
トレーニングの非効率性は、Gideonの合理化されたデータ生成パイプラインによって軽減できる。
- 参考スコア(独自算出の注目度): 2.713900710544906
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: PDDL-based symbolic task planning remains pivotal for robot autonomy yet struggles with dynamic human-robot collaboration due to scalability, re-planning demands, and delayed plan availability. Although a few neurosymbolic frameworks have previously leveraged LLMs such as GPT-3 to address these challenges, reliance on closed-source, remote models with limited context introduced critical constraints: third-party dependency, inconsistent response times, restricted plan length and complexity, and multi-domain scalability issues. We present Gideon, a novel framework that enables the transition to modern, smaller, local LLMs with extended context length. Gideon integrates a novel problem generator to systematically generate large-scale datasets of realistic domain-problem-plan tuples for any domain, and adapts neurosymbolic planning for local LLMs, enabling on-device execution and extended context for multi-domain support. Preliminary experiments in single-domain scenarios performed on Qwen-2.5 1.5B and trained on 8k-32k samples, demonstrate a valid plan percentage of 66.1% (32k model) and show that the figure can be further scaled through additional data. Multi-domain tests on 16k samples yield an even higher 70.6% planning validity rate, proving extensibility across domains and signaling that data variety can have a positive effect on learning efficiency. Although long-horizon planning and reduced model size make Gideon training much less efficient than baseline models based on larger LLMs, the results are still significant considering that the trained model is about 120x smaller than baseline and that significant advantages can be achieved in inference efficiency, scalability, and multi-domain adaptability, all critical factors in human-robot collaboration. Training inefficiency can be mitigated by Gideon's streamlined data generation pipeline.
- Abstract(参考訳): PDDLベースのシンボリックタスクプランニングは、拡張性、再計画の要求、計画の可用性の遅れにより、ロボットの自律性にとって依然として重要な課題である。
GPT-3のようないくつかのニューロシンボリックフレームワークは、これらの課題に対処するために、これまでもLCMを活用してきたが、クローズドソースに依存しており、限られたコンテキストを持つリモートモデルには、サードパーティの依存性、一貫性のない応答時間、制限されたプラン長と複雑さ、マルチドメインスケーラビリティの問題といった重要な制約が導入された。
Gideonは、コンテキスト長が拡張された、現代的で、より小さく、ローカルなLLMへの移行を可能にする、新しいフレームワークである。
Gideonは、新しい問題生成装置を統合し、任意のドメインに対して現実的なドメインプロブレムプランタプルの大規模データセットを体系的に生成し、ローカルLLMのニューロシンボリックプランニングを適用し、オンデバイス実行とマルチドメインサポートの拡張コンテキストを可能にする。
Qwen-2.5 1.5Bで実施され、8k-32kサンプルで訓練された単一ドメインシナリオの予備実験では、66.1%(32kモデル)の有効なプランパーセンテージが示され、この数値がさらなるデータによってさらにスケール可能であることを示す。
16kサンプルのマルチドメインテストは、より高い70.6%の計画妥当性を示し、ドメイン間の拡張性を証明し、データの多様性が学習効率にポジティブな影響を与えることを示唆する。
長期計画とモデルサイズの縮小により、Gideonトレーニングはより大きなLLMに基づくベースラインモデルよりもはるかに効率が良いが、トレーニングされたモデルはベースラインよりも約120倍小さく、推論効率、スケーラビリティ、マルチドメイン適応性において大きな利点が得られ、人間とロボットのコラボレーションにおける重要な要素である。
トレーニングの非効率性は、Gideonの合理化されたデータ生成パイプラインによって軽減できる。
関連論文リスト
- A Large Language Model for Feasible and Diverse Population Synthesis [0.6581049960856515]
ベイズネットワーク(BN)から派生したトポロジ的順序付けにより自己回帰生成過程を明示的に制御する大規模言語モデル(LLM)の微調整法を提案する。
提案手法は、DGM(Deep Generative Model)で観測される80%よりもはるかに高い約95%の実現可能性を実現する。
これにより、メガシティの人口を合成するなど、大規模アプリケーションにとってコスト効率が高くスケーラブルなアプローチが実現される。
論文 参考訳(メタデータ) (2025-05-07T07:50:12Z) - World Model-Based Learning for Long-Term Age of Information Minimization in Vehicular Networks [53.98633183204453]
本稿では,車載ネットワークにおけるパケット完全性認識情報(CAoI)の年齢を最小化するために,新しい世界モデルに基づく学習フレームワークを提案する。
mmWave V2X環境の動的モデルを共同で学習し、リンクスケジューリングの方法を学ぶための軌跡を想像するために使用する世界モデルフレームワークを提案する。
特に、長期的な政策は環境相互作用の代わりに、異なる想像軌道で学習される。
論文 参考訳(メタデータ) (2025-05-03T06:23:18Z) - MAGNNET: Multi-Agent Graph Neural Network-based Efficient Task Allocation for Autonomous Vehicles with Deep Reinforcement Learning [2.5022287664959446]
本稿では,グラフニューラルネットワーク(GNN)を一元的トレーニングと分散実行(CTDE)パラダイムに統合する新しいフレームワークを提案する。
本手法により,無人航空機 (UAV) と無人地上車両 (UGV) は, 中央調整を必要とせず, 効率よくタスクを割り当てることができる。
論文 参考訳(メタデータ) (2025-02-04T13:29:56Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - A Framework for Neurosymbolic Robot Action Planning using Large Language Models [3.0501524254444767]
本稿では,象徴的タスク計画と機械学習アプローチのギャップを埋めることを目的としたフレームワークを提案する。
大規模言語モデル(LLM)を計画ドメイン定義言語(PDDL)と互換性のあるニューロシンボリックタスクプランナーに訓練する根拠
選択されたドメインにおける予備的な結果から, (i) テストデータセットの95.5%の問題を1,000個のサンプルで解決し, (ii) 従来のシンボルプランナーよりも最大13.5%短いプランを作成し, (iii) 計画の可利用性の平均待ち時間を61.4%まで削減する。
論文 参考訳(メタデータ) (2023-03-01T11:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。