論文の概要: CHD: Coupled Hierarchical Diffusion for Long-Horizon Tasks
- arxiv url: http://arxiv.org/abs/2505.07261v1
- Date: Mon, 12 May 2025 06:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.276841
- Title: CHD: Coupled Hierarchical Diffusion for Long-Horizon Tasks
- Title(参考訳): CHD: 長期タスクのための階層的拡散の結合
- Authors: Ce Hao, Anxing Xiao, Zhiwei Xue, Harold Soh,
- Abstract要約: 本稿では,HLサブゴールとLLトラジェクトリを統一拡散プロセス内で共同でモデル化するフレームワークを提案する。
迷路のナビゲーション、テーブルトップ操作、家庭環境における実験は、CHDがフラットな拡散ベースラインと階層的な拡散ベースラインの両方を一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 9.696724246024425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based planners have shown strong performance in short-horizon tasks but often fail in complex, long-horizon settings. We trace the failure to loose coupling between high-level (HL) sub-goal selection and low-level (LL) trajectory generation, which leads to incoherent plans and degraded performance. We propose Coupled Hierarchical Diffusion (CHD), a framework that models HL sub-goals and LL trajectories jointly within a unified diffusion process. A shared classifier passes LL feedback upstream so that sub-goals self-correct while sampling proceeds. This tight HL-LL coupling improves trajectory coherence and enables scalable long-horizon diffusion planning. Experiments across maze navigation, tabletop manipulation, and household environments show that CHD consistently outperforms both flat and hierarchical diffusion baselines.
- Abstract(参考訳): 拡散に基づくプランナーは、短期水平タスクでは強い性能を示してきたが、しばしば複雑な長期水平設定では失敗する。
我々は,高レベル(HL)サブゴール選択と低レベル(LL)トラジェクトリ生成との疎結合の失敗を辿り,不整合計画や性能低下につながった。
HLサブゴールとLLトラジェクトリを統一拡散過程内で共同でモデル化するフレームワークである結合階層拡散(CHD)を提案する。
共有分類器はLLフィードバックを上流に渡すので、サンプリング処理中にサブゴールが自己修正される。
この厳密なHL-LL結合は軌道コヒーレンスを改善し、スケーラブルな長距離拡散計画を可能にする。
迷路のナビゲーション、テーブルトップ操作、家庭環境における実験は、CHDがフラットな拡散ベースラインと階層的な拡散ベースラインの両方を一貫して上回っていることを示している。
関連論文リスト
- Nesterov Method for Asynchronous Pipeline Parallel Optimization [59.79227116582264]
パイプライン並列処理における非同期最適化のために,Nesterov Accelerated Gradient (NAG) の変種を導入する。
具体的には、NAGのルックアヘッドステップを変更して、勾配の安定性を効果的に解決する。
我々は、勾配の固定遅延の存在下で、我々のアプローチがサブ線形速度で収束することを理論的に証明する。
論文 参考訳(メタデータ) (2025-05-02T08:23:29Z) - Extendable Long-Horizon Planning via Hierarchical Multiscale Diffusion [62.91968752955649]
本稿では,学習データよりも長い軌道計画を行うための,拡張可能な長期計画支援エージェントの課題に対処する。
より短いものを縫い合わせることで、より長い軌跡を反復的に生成する拡張法を提案する。
HM-ディフューザーは階層構造を用いてこれらの拡張軌道を訓練し、複数の時間スケールにわたるタスクを効率的に処理する。
論文 参考訳(メタデータ) (2025-03-25T22:52:46Z) - Generative Trajectory Stitching through Diffusion Composition [29.997765496994457]
CompDiffuserは、これまで見てきたタスクから短い軌跡を合成的に縫い合わせることで、新しいタスクを解決できる新しい生成的アプローチである。
我々は,さまざまな環境サイズ,エージェント状態次元,軌道タイプ,データ品質のトレーニングなど,さまざまな課題のベンチマークタスクについて実験を行い,CompDiffuserが既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-07T05:22:52Z) - Improving Vector-Quantized Image Modeling with Latent Consistency-Matching Diffusion [55.185588994883226]
VQ-LCMDは、学習を安定させる埋め込み空間内の連続空間潜在拡散フレームワークである。
VQ-LCMDは、関節埋め込み拡散変動下界と整合整合性(CM)損失を組み合わせた新しいトレーニング目標を使用する。
実験により,提案したVQ-LCMDは離散状態潜伏拡散モデルと比較して,FFHQ,LSUN教会,LSUNベッドルームにおいて優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-18T09:12:33Z) - Diffusion Meets Options: Hierarchical Generative Skill Composition for Temporally-Extended Tasks [12.239868705130178]
線形時間論理(LTL)によって規定された命令に基づいて計画の生成と更新を行うデータ駆動階層型フレームワークを提案する。
提案手法は,オフラインの非専門家データセットから階層的強化学習を用いて,時間的タスクを選択肢の連鎖に分解する。
バッチ生成における行列誘導後サンプリング手法を考案し,拡散生成オプションの速度と多様性を向上する。
論文 参考訳(メタデータ) (2024-10-03T11:10:37Z) - PlanDQ: Hierarchical Plan Orchestration via D-Conductor and Q-Performer [47.924941959320996]
我々はPlanDQと呼ばれるオフラインRL用に設計された階層型プランナを提案する。
PlanDQはD-Conductorという名前の拡散型プランナーを高レベルに組み込んでおり、サブゴールを通じて低レベル政策を導く。
低レベルでは、これらのサブゴールを達成するためにQ-Performerと呼ばれるQ-ラーニングベースのアプローチを使用しました。
論文 参考訳(メタデータ) (2024-06-10T20:59:53Z) - Deoscillated Graph Collaborative Filtering [74.55967586618287]
協調フィルタリング(CF)信号は、ユーザとアイテムの埋め込みを学習するRecommender System(RS)モデルにとって不可欠である。
最近のグラフニューラルネットワーク(GNN)では、複数の集約層を積み重ねて高次信号の伝搬を提案する。
textbfDeoscillated textbfGraph textbfCollaborative textbfFiltering(DGCF)という新しいRSモデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T02:26:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。