論文の概要: FCRF: Flexible Constructivism Reflection for Long-Horizon Robotic Task Planning with Large Language Models
- arxiv url: http://arxiv.org/abs/2507.14975v1
- Date: Sun, 20 Jul 2025 14:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.145672
- Title: FCRF: Flexible Constructivism Reflection for Long-Horizon Robotic Task Planning with Large Language Models
- Title(参考訳): FCRF:大規模言語モデルを用いた長軸ロボットタスク計画のためのフレキシブルコンストラクティビズム反射
- Authors: Yufan Song, Jiatao Zhang, Zeng Gu, Qingmiao Liang, Tuocheng Hu, Wei Song, Shiqiang Zhu,
- Abstract要約: タスク難易度に基づいたフレキシブルな自己回帰を実現するためのメンター・アクターアーキテクチャを提案する。
実験結果から、FCRFは複雑な長距離ロボット作業において、全体的な性能と自己反射の柔軟性を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 4.654162799726772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous error correction is critical for domestic robots to achieve reliable execution of complex long-horizon tasks. Prior work has explored self-reflection in Large Language Models (LLMs) for task planning error correction; however, existing methods are constrained by inflexible self-reflection mechanisms that limit their effectiveness. Motivated by these limitations and inspired by human cognitive adaptation, we propose the Flexible Constructivism Reflection Framework (FCRF), a novel Mentor-Actor architecture that enables LLMs to perform flexible self-reflection based on task difficulty, while constructively integrating historical valuable experience with failure lessons. We evaluated FCRF on diverse domestic tasks through simulation in AlfWorld and physical deployment in the real-world environment. Experimental results demonstrate that FCRF significantly improves overall performance and self-reflection flexibility in complex long-horizon robotic tasks.
- Abstract(参考訳): 自律的誤り訂正は、複雑な長距離作業の確実な実行を実現するために、家庭ロボットにとって不可欠である。
タスク計画誤り訂正のためのLarge Language Models (LLMs) における自己回帰についてはこれまで検討してきたが、既存の手法はその有効性を制限する非フレキシブルな自己回帰機構によって制約されている。
これらの制約に触発され,人間の認知的適応に触発されたフレキシブル・コンストラクティビズム・リフレクション・フレームワーク(FCRF)を提案する。
我々は,AlfWorldにおけるシミュレーションと実環境における物理展開を通じて,多様な家庭内課題に対するFCRFの評価を行った。
実験結果から、FCRFは複雑な長距離ロボット作業において、全体的な性能と自己反射の柔軟性を著しく向上することが示された。
関連論文リスト
- Think, Reflect, Create: Metacognitive Learning for Zero-Shot Robotic Planning with LLMs [0.6755874937407783]
メタ認知学習を大規模言語モデル(LLM)に統合する初期段階フレームワークを提案する。
提案するフレームワークは, LLMを動力とするロボットエージェントに, スキル分解と自己回帰機構を備える。
実験の結果,メタ認知学習を利用したLLMフレームワークは,既存のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-05-20T20:51:18Z) - APEX: Empowering LLMs with Physics-Based Task Planning for Real-time Insight [3.5385022178794805]
APEX(Anticipatory Physics-Enhanced Execution)は、大規模言語モデルに物理駆動型フォレストを組み、リアルタイムタスク計画のためのフレームワークである。
APEX は標準の LLM や VLM ベースのモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-20T04:34:58Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Data-Agnostic Robotic Long-Horizon Manipulation with Vision-Language-Guided Closed-Loop Feedback [12.600525101342026]
本稿では,言語条件のロングホライズンロボット操作のためのデータに依存しないフレームワークであるDAHLIAを紹介する。
LLMは、リアルタイムタスク計画と実行のための大きな言語モデルである。
本フレームワークは,多種多様な長期タスクにおける最先端性能を実証し,シミュレーションおよび実世界のシナリオにおいて強力な一般化を実現する。
論文 参考訳(メタデータ) (2025-03-27T20:32:58Z) - ReVISE: Learning to Refine at Test-Time via Intrinsic Self-Verification [53.80183105328448]
Refine via Intrinsic Self-Verification (ReVISE)は、LLMが自己検証を通じてアウトプットを自己修正できる効率的なフレームワークである。
様々な推論タスクに関する実験により、ReVISEは効率的な自己補正を実現し、推論性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-02-20T13:50:02Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - AutoFLUKA: A Large Language Model Based Framework for Automating Monte Carlo Simulations in FLUKA [6.571041942559539]
モンテカルロ (MC) シミュレーションは、科学と工学の分野で現実世界のシナリオを再現するために不可欠である。
堅牢性と汎用性にもかかわらず、FLUKAは自動化と外部の後処理ツールとの統合において大きな制限に直面している。
本研究では,これらの制約に対処するLarge Language Models(LLM)とAIエージェントの可能性について検討する。
本稿では、LangChain Python Frameworkを用いて開発され、FLUKAの典型的なMCシミュレーションを自動化するAIエージェントであるAutoFLUKAを紹介する。
論文 参考訳(メタデータ) (2024-10-19T21:50:11Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - RILe: Reinforced Imitation Learning [60.63173816209543]
RILe(Reinforced Learning)は、模倣学習と逆強化学習の強みを組み合わせて、高密度報酬関数を効率的に学習するフレームワークである。
本フレームワークは, 直接模倣が複雑な動作を再現できないような高次元タスクにおいて, 高い性能のポリシーを生成する。
論文 参考訳(メタデータ) (2024-06-12T17:56:31Z) - LGR2: Language Guided Reward Relabeling for Accelerating Hierarchical Reinforcement Learning [22.99690700210957]
階層強化学習(HRL)における非定常性を緩和する新しい枠組みを提案する。
私たちは、低レベルの政策行動の変化の影響を受けない、言語誘導された高レベルの報酬を使用します。
ロボットナビゲーションと操作環境の難易度は70%を超えています。
論文 参考訳(メタデータ) (2024-06-09T18:40:24Z) - InferAligner: Inference-Time Alignment for Harmlessness through
Cross-Model Guidance [56.184255657175335]
我々は,無害アライメントのためのクロスモデルガイダンスを利用する新しい推論時間アライメント手法であるtextbfInferAligner を開発した。
実験結果から,本手法はファイナンス,医学,数学の分野特化モデルに極めて効果的に適用可能であることが示された。
これは有害な命令とジェイルブレイク攻撃の両方のアタック成功率(ASR)を著しく低下させ、下流タスクではほとんど変化のないパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-01-20T10:41:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。