論文の概要: DETACH: Cross-domain Learning for Long-Horizon Tasks via Mixture of Disentangled Experts
- arxiv url: http://arxiv.org/abs/2508.07842v1
- Date: Mon, 11 Aug 2025 10:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.052864
- Title: DETACH: Cross-domain Learning for Long-Horizon Tasks via Mixture of Disentangled Experts
- Title(参考訳): DETACH: 絡み合った専門家の混在による長距離タスクのためのクロスドメイン学習
- Authors: Yutong Shen, Hangxu Liu, Penghui Liu, Ruizhe Xia, Tianyi Yao, Yitong Sun, Tongtong Feng,
- Abstract要約: DETACHは、生物学的にインスパイアされた二重ストリームの絡み合いによるLHタスクのためのクロスドメイン学習フレームワークである。
平均サブタスク成功率が23%、平均実行効率が29%向上する。
- 参考スコア(独自算出の注目度): 2.720180408786458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-Horizon (LH) tasks in Human-Scene Interaction (HSI) are complex multi-step tasks that require continuous planning, sequential decision-making, and extended execution across domains to achieve the final goal. However, existing methods heavily rely on skill chaining by concatenating pre-trained subtasks, with environment observations and self-state tightly coupled, lacking the ability to generalize to new combinations of environments and skills, failing to complete various LH tasks across domains. To solve this problem, this paper presents DETACH, a cross-domain learning framework for LH tasks via biologically inspired dual-stream disentanglement. Inspired by the brain's "where-what" dual pathway mechanism, DETACH comprises two core modules: i) an environment learning module for spatial understanding, which captures object functions, spatial relationships, and scene semantics, achieving cross-domain transfer through complete environment-self disentanglement; ii) a skill learning module for task execution, which processes self-state information including joint degrees of freedom and motor patterns, enabling cross-skill transfer through independent motor pattern encoding. We conducted extensive experiments on various LH tasks in HSI scenes. Compared with existing methods, DETACH can achieve an average subtasks success rate improvement of 23% and average execution efficiency improvement of 29%.
- Abstract(参考訳): ヒューマン・シーン・インタラクション(HSI)におけるLH(Long-Horizon)タスクは、最終目標を達成するために、継続的な計画、シーケンシャルな意思決定、ドメイン横断の実行を必要とする複雑なマルチステップタスクである。
しかし、既存の手法は、事前訓練されたサブタスクを連結し、環境観察と自己状態が密結合し、新しい環境とスキルの組み合わせに一般化する能力が欠如し、ドメイン間で様々なLHタスクを完了できない、というスキル連鎖に大きく依存している。
そこで本研究では,生物にインスパイアされた二重ストリームの絡み合いによるLHタスクのクロスドメイン学習フレームワークであるDETACHを提案する。
脳の「場所」二重経路機構にインスパイアされたDTACHは、以下の2つのコアモジュールから構成される。
一 空間的理解のための環境学習モジュールであって、対象機能、空間的関係及びシーン意味を捉え、完全な環境自己の絡み合いを通じて、ドメイン間移動を達成すること。
二 自律的な自由度及び運動パターンを含む自己状態情報を処理し、独立運動パターン符号化によるクロススキル伝達を可能にするタスク実行のための技能学習モジュール。
我々は,HSIシーンにおける様々なLHタスクについて広範な実験を行った。
従来の手法と比較して、DETACHは平均サブタスク成功率23%、平均実行効率29%の向上を達成することができる。
関連論文リスト
- Separation and Collaboration: Two-Level Routing Grouped Mixture-of-Experts for Multi-Domain Continual Learning [7.361665112773847]
破滅的忘れを緩和する2レベル混合実験法(TRGE)を提案する。
TRGEはトレーニング済みのCLIPモデルを動的に拡張し、各タスクに特定の専門家グループを割り当てる。
我々は,タスク記述を生成し,正しいタスク識別子を認識するために,強力なマルチモーダル理解機能を持つマルチモーダル大規模言語モデル(MLLM)を利用する。
論文 参考訳(メタデータ) (2025-08-11T08:18:22Z) - CKAA: Cross-subspace Knowledge Alignment and Aggregation for Robust Continual Learning [80.18781219542016]
継続的学習(CL)は、シーケンシャルなタスクストリームから継続的に学習するAIモデルに権限を与える。
近年,パラメータ効率のよい微調整(PEFT)によるCL法が注目されている。
ミスリード型タスクIDに対するロバスト性を高めるために,クロスサブスペース・ナレッジアライメント・アグリゲーション(CKAA)を提案する。
論文 参考訳(メタデータ) (2025-07-13T03:11:35Z) - Mixture-of-Experts Meets In-Context Reinforcement Learning [29.866936147753368]
本稿では,テキストbfT2MIR(textbfToken- and textbfTask-wise textbfMoE for textbfIn-context textbfRL)を紹介する。
総合的な実験により、T2MIRはコンテキスト内学習能力を大幅に向上させ、様々なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-06-05T06:29:14Z) - Solving Continual Offline RL through Selective Weights Activation on Aligned Spaces [52.649077293256795]
連続オフライン強化学習(CORL)は拡散に基づく生涯学習システムにおいて顕著な能力を示した。
本稿では,Vector-Quantized Continual diffuser(VQ-CD)を提案する。
論文 参考訳(メタデータ) (2024-10-21T07:13:45Z) - DenseMTL: Cross-task Attention Mechanism for Dense Multi-task Learning [18.745373058797714]
本稿では,相互に相互にタスクを交換するマルチタスク学習アーキテクチャを提案する。
我々は3つのマルチタスク・セットアップにまたがって広範な実験を行い、合成および実世界のベンチマークにおいて競合するベースラインと比較して、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2022-06-17T17:59:45Z) - Self-Taught Cross-Domain Few-Shot Learning with Weakly Supervised Object
Localization and Task-Decomposition [84.24343796075316]
本稿では,クロスドメインなFew-Shot学習のためのタスク拡張分解フレームワークを提案する。
提案した自己学習(ST)アプローチは,タスク指向距離空間を構築することで,非目標誘導の問題を軽減する。
CUB、カーズ、Places、Planae、CropDieases、EuroSAT、ISIC、ChestXの8つのドメインを含むクロスドメイン環境で実験を行う。
論文 参考訳(メタデータ) (2021-09-03T04:23:07Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。