論文の概要: UML-CoT: Structured Reasoning and Planning with Unified Modeling Language for Robotic Room Cleaning
- arxiv url: http://arxiv.org/abs/2509.22628v2
- Date: Mon, 29 Sep 2025 13:56:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.674073
- Title: UML-CoT: Structured Reasoning and Planning with Unified Modeling Language for Robotic Room Cleaning
- Title(参考訳): UML-CoT:ロボットルームクリーニングのための統一モデリング言語による構造化推論と計画
- Authors: Hongyu Chen, Guangrun Wang,
- Abstract要約: CoT(Chain-of-Thought)は、大規模言語モデル(LLM)の推論を改善するが、非構造化テキストへの依存は、エンボディされたタスクの解釈可能性と実行可能性を制限する。
本稿では,UML(Unified Modeling Language)を利用してシンボルCoTと実行可能なアクションプランを生成する構造的推論・計画フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.505621596668163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-Thought (CoT) prompting improves reasoning in large language models (LLMs), but its reliance on unstructured text limits interpretability and executability in embodied tasks. Prior work has explored structured CoTs using scene or logic graphs, yet these remain fundamentally limited: they model only low-order relations, lack constructs like inheritance or behavioral abstraction, and provide no standardized semantics for sequential or conditional planning. We propose UML-CoT, a structured reasoning and planning framework that leverages Unified Modeling Language (UML) to generate symbolic CoTs and executable action plans. UML class diagrams capture compositional object semantics, while activity diagrams model procedural control flow. Our three-stage training pipeline combines supervised fine-tuning with Group Relative Policy Optimization (GRPO), including reward learning from answer-only data. We evaluate UML-CoT on MRoom-30k, a new benchmark of cluttered room-cleaning scenarios. UML-CoT outperforms unstructured CoTs in interpretability, planning coherence, and execution success, highlighting UML as a more expressive and actionable structured reasoning formalism.
- Abstract(参考訳): CoT(Chain-of-Thought)は、大規模言語モデル(LLM)の推論を改善するが、非構造化テキストへの依存は、エンボディされたタスクの解釈可能性と実行可能性を制限する。
それらは低次関係のみをモデル化し、継承や振る舞いの抽象化のような構造を欠き、シーケンシャルまたは条件付き計画のための標準化されたセマンティクスを提供しない。
UML-CoTは、UML(Unified Modeling Language)を利用してシンボルCoTと実行可能なアクションプランを生成する構造的推論・計画フレームワークである。
UMLクラス図は構成オブジェクトの意味を捉え、アクティビティ図は手続き制御フローをモデル化します。
私たちの3段階のトレーニングパイプラインは、教師付き微調整とグループ相対政策最適化(GRPO)を組み合わせています。
我々はMRoom-30k上でUML-CoTを評価した。
UML-CoT は非構造化 CoT を解釈可能性、計画コヒーレンス、実行の成功で上回り、UML をより表現的で実用的な構造的推論形式として強調する。
関連論文リスト
- STARE at the Structure: Steering ICL Exemplar Selection with Structural Alignment [24.80531387685099]
本稿では,効率,一般化性,性能のバランスを保った2段階の模範選択戦略を提案する。
まず、BERTベースのレトリバーを構造意識の監視を用いて微調整し、意味論的に関連性があり構造的に整合した模範を選定する。
次に,隠れ表現において構文的に意味のある情報を増幅するプラグインモジュールを用いて,検索機能を強化した。
論文 参考訳(メタデータ) (2025-08-28T16:04:39Z) - Beyond Natural Language Plans: Structure-Aware Planning for Query-Focused Table Summarization [21.1381898110636]
本稿では,従来のマルチエージェントシステムにおけるフォーマリズムにインスパイアされた新しい構造化プランTaSoFと,3段階の推論プロセスを形式化するフレームワークSPaGeを紹介する。
3つの公開ベンチマークの実験では、SPaGeはシングルテーブルとマルチテーブルの両方で、従来モデルよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-07-30T16:42:19Z) - PLAN-TUNING: Post-Training Language Models to Learn Step-by-Step Planning for Complex Problem Solving [66.42260489147617]
大規模言語モデルから合成タスク分解を蒸留するフレームワークであるPLAN-TUNINGを紹介する。
複雑な推論を改善するために、教師付きおよび強化学習の目的を通したプランチューン細管モデル。
本分析は,計画軌道が複雑な推論能力をいかに改善するかを示す。
論文 参考訳(メタデータ) (2025-07-10T07:30:44Z) - LogiPlan: A Structured Benchmark for Logical Planning and Relational Reasoning in LLMs [7.012555483275226]
LogiPlanは、大規模言語モデル(LLM)の論理的計画と複雑なリレーショナル構造に対する推論能力を評価するために設計されたベンチマークである。
我々はDeepSeek R1, Gemini 2.0 Pro, Gemini 2 Flash Thinking, GPT-4.5, GPT-4o, Llama 3.1 405B, O3-mini, O1, Claude 3.7 Sonnetを3つのタスクで評価した。
論文 参考訳(メタデータ) (2025-06-12T09:47:02Z) - LayoutCoT: Unleashing the Deep Reasoning Potential of Large Language Models for Layout Generation [3.1627400208503653]
条件付きレイアウト生成は、ユーザが定義した制約から視覚的に魅力的でセマンティックに一貫性のあるレイアウトを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) の推論能力を活用する新しい手法として,検索型拡張生成(RAG) とChain-of-Thought (CoT) 技術の組み合わせを提案する。
我々は3つの条件付きレイアウト生成タスクにまたがる5つの公開データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-04-15T03:12:01Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - Parrot Mind: Towards Explaining the Complex Task Reasoning of Pretrained Large Language Models with Template-Content Structure [66.33623392497599]
テンプレート・コンテント構造(T-C構造)と呼ばれる構造は指数レベルから線形レベルへの可能な空間を減少させることができることを示す。
モデルがタスク構成を達成でき、線形から対数への学習に必要なスペースをさらに削減できることを実証する。
論文 参考訳(メタデータ) (2023-10-09T06:57:45Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。