論文の概要: MO-SeGMan: Rearrangement Planning Framework for Multi Objective Sequential and Guided Manipulation in Constrained Environments
- arxiv url: http://arxiv.org/abs/2511.01476v1
- Date: Mon, 03 Nov 2025 11:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.243805
- Title: MO-SeGMan: Rearrangement Planning Framework for Multi Objective Sequential and Guided Manipulation in Constrained Environments
- Title(参考訳): MO-SeGMan:制約環境における多目的シーケンスと誘導操作のための再配置計画フレームワーク
- Authors: Cankut Bora Tuncer, Marc Toussaint, Ozgur S. Oguz,
- Abstract要約: 高度に制約された再配置問題に対するシークエンシャルおよびガイド・マニピュレーション・プランナであるMO-SeGManを紹介する。
Mo-SeGManは、オブジェクトごとの再計画とロボット走行距離の両方を最小限に抑えるオブジェクト配置シーケンスを生成する。
この結果から,MO-SeGManは解の時間と解の質を,ベースラインに比べて一貫して向上させることがわかった。
- 参考スコア(独自算出の注目度): 14.799742504098603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce MO-SeGMan, a Multi-Objective Sequential and Guided Manipulation planner for highly constrained rearrangement problems. MO-SeGMan generates object placement sequences that minimize both replanning per object and robot travel distance while preserving critical dependency structures with a lazy evaluation method. To address highly cluttered, non-monotone scenarios, we propose a Selective Guided Forward Search (SGFS) that efficiently relocates only critical obstacles and to feasible relocation points. Furthermore, we adopt a refinement method for adaptive subgoal selection to eliminate unnecessary pick-and-place actions, thereby improving overall solution quality. Extensive evaluations on nine benchmark rearrangement tasks demonstrate that MO-SeGMan generates feasible motion plans in all cases, consistently achieving faster solution times and superior solution quality compared to the baselines. These results highlight the robustness and scalability of the proposed framework for complex rearrangement planning problems.
- Abstract(参考訳): 本研究では,多目的シーケンスおよびガイドマニピュレーションプランナであるMO-SeGManを,高度に制約された再配置問題に対して導入する。
MO-SeGManは、遅延評価法を用いて、重要な依存構造を保持しながら、オブジェクトごとの計画変更とロボット走行距離の両方を最小化するオブジェクト配置シーケンスを生成する。
SGFS (Selective Guided Forward Search) を提案する。
さらに,不必要なピック・アンド・プレイス動作を排除し,全体のソリューション品質を向上させるため,適応サブゴール選択のための改良手法を採用した。
9つのベンチマークアレンジメントタスクに対する広範囲な評価は、MO-SeGManが全てのケースにおいて実現可能な動作計画を生成し、一貫して解時間と解の質をベースラインよりも向上することを示した。
これらの結果は、複雑な再配置計画問題に対する提案フレームワークの堅牢性とスケーラビリティを強調している。
関連論文リスト
- Recursive Reward Aggregation [60.51668865089082]
本稿では,報酬関数の変更を不要としたフレキシブルな行動アライメントのための代替手法を提案する。
マルコフ決定過程(MDP)の代数的視点を導入することにより、ベルマン方程式が報酬の生成と集約から自然に現れることを示す。
我々のアプローチは決定論的および決定論的設定の両方に適用され、価値に基づくアルゴリズムとアクター批判的アルゴリズムとシームレスに統合される。
論文 参考訳(メタデータ) (2025-07-11T12:37:20Z) - PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving [89.60370366013142]
制約,検証,選択という3つの重要な要素を持つモデルに依存しない,スケーラブルなエージェントフレームワークであるPlanGENを提案する。
具体的には、推論時間アルゴリズムの性能を向上させるために、制約誘導反復検証を提案する。
論文 参考訳(メタデータ) (2025-02-22T06:21:56Z) - Hierarchical Object-Oriented POMDP Planning for Object Rearrangement [19.62753215239688]
現在のオブジェクト再構成ソリューションは、主に強化学習または手作業による計画手法に基づいており、様々な課題への適応性に欠けることが多い。
この制限に対処するために,新しい階層的オブジェクト指向部分観測マルコフ決定プロセス(HOO-POMDP)を導入する。
本稿では、部分的に観測可能なマルチルーム環境における多目的再構成問題を解決するためのオンライン・プランニング・フレームワークと新しいベンチマーク・データセットを提案する。
論文 参考訳(メタデータ) (2024-12-02T10:19:36Z) - A Meta-Engine Framework for Interleaved Task and Motion Planning using Topological Refinements [51.54559117314768]
タスク・アンド・モーション・プランニング(タスク・アンド・モーション・プランニング、TAMP)は、自動化された計画問題の解決策を見つけるための問題である。
本稿では,TAMP問題のモデル化とベンチマークを行うための,汎用的でオープンソースのフレームワークを提案する。
移動エージェントと複数のタスク状態依存障害を含むTAMP問題を解決する革新的なメタ技術を導入する。
論文 参考訳(メタデータ) (2024-08-11T14:57:57Z) - MANER: Multi-Agent Neural Rearrangement Planning of Objects in Cluttered
Environments [8.15681999722805]
本稿では,マルチエージェントオブジェクトアレンジメント計画のための学習ベースのフレームワークを提案する。
複雑な環境におけるタスクシークエンシングとパス計画の課題に対処する。
論文 参考訳(メタデータ) (2023-06-10T23:53:28Z) - Multi-Objective Policy Gradients with Topological Constraints [108.10241442630289]
本稿では, PPOアルゴリズムの簡単な拡張により, TMDPにおけるポリシー勾配に対する新しいアルゴリズムを提案する。
シミュレーションと実ロボットの両方の目的を任意に並べた実世界の多目的ナビゲーション問題に対して,これを実証する。
論文 参考訳(メタデータ) (2022-09-15T07:22:58Z) - Goal Kernel Planning: Linearly-Solvable Non-Markovian Policies for Logical Tasks with Goal-Conditioned Options [54.40780660868349]
我々はLinearly-Solvable Goal Kernel Dynamic Programming (LS-GKDP)と呼ばれる合成フレームワークを導入する。
LS-GKDPは、Linearly-Solvable Markov Decision Process (LMDP)形式とOptions Framework of Reinforcement Learningを組み合わせたものである。
本稿では,目標カーネルを持つLMDPが,タスク接地によって定義された低次元部分空間におけるメタポリティシの効率的な最適化を実現する方法を示す。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。