論文の概要: Lifelong Imitation Learning with Multimodal Latent Replay and Incremental Adjustment
- arxiv url: http://arxiv.org/abs/2603.10929v1
- Date: Wed, 11 Mar 2026 16:13:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.047741
- Title: Lifelong Imitation Learning with Multimodal Latent Replay and Incremental Adjustment
- Title(参考訳): 多モードラテント再生とインクリメンタル調整による生涯模倣学習
- Authors: Fanqi Yu, Matteo Tiezzi, Tommaso Apicella, Cigdem Beyan, Vittorio Murino,
- Abstract要約: 逐次的タスク間での継続的なポリシー改善を可能にする、生涯にわたる模倣学習フレームワークを導入する。
我々のアプローチは、マルチモーダルな潜在空間で完全に操作することで、従来の経験リプレイとは切り離されている。
提案手法は,AUCの10-17ポイントゲインを達成し,従来の先行手法に比べて最大65%の遅延を低減した。
- 参考スコア(独自算出の注目度): 13.225857657465992
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a lifelong imitation learning framework that enables continual policy refinement across sequential tasks under realistic memory and data constraints. Our approach departs from conventional experience replay by operating entirely in a multimodal latent space, where compact representations of visual, linguistic, and robot's state information are stored and reused to support future learning. To further stabilize adaptation, we introduce an incremental feature adjustment mechanism that regularizes the evolution of task embeddings through an angular margin constraint, preserving inter-task distinctiveness. Our method establishes a new state of the art in the LIBERO benchmarks, achieving 10-17 point gains in AUC and up to 65% less forgetting compared to previous leading methods. Ablation studies confirm the effectiveness of each component, showing consistent gains over alternative strategies. The code is available at: https://github.com/yfqi/lifelong_mlr_ifa.
- Abstract(参考訳): 本稿では,現実的なメモリとデータ制約下での逐次的タスク間の継続的なポリシー改善を可能にする,生涯にわたる模倣学習フレームワークを提案する。
本手法は,視覚,言語,ロボットの状態情報のコンパクトな表現を格納・再利用し,将来の学習を支援するマルチモーダル潜在空間で完全に動作させることによって,従来の経験リプレイから逸脱する。
さらに適応性を高めるために,タスク埋め込みの進化を角の辺りの制約によって規則化し,タスク間の特異性を保ったインクリメンタルな特徴調整機構を導入する。
LIBERO ベンチマークでは,AUC では 10-17 点のゲインを達成し,従来の先行手法に比べて最大 65% の差が認められている。
アブレーション研究は各成分の有効性を確認し、代替戦略よりも一貫した利得を示す。
コードは、https://github.com/yfqi/lifelong_mlr_ifa.comで入手できる。
関連論文リスト
- SPREAD: Subspace Representation Distillation for Lifelong Imitation Learning [11.023696977257883]
生涯の模倣学習における重要な課題は、エージェントが事前知識を維持しながら専門家のデモンストレーションから新しいスキルを習得できるようにすることである。
生の特徴空間におけるL2-ノルム特徴マッチングに依存する既存の蒸留法は,ノイズや高次元変動に敏感である。
低ランク部分空間内のタスク間でポリシー表現を整合させるために特異値分解を利用する幾何保存フレームワークSPREADを導入する。
論文 参考訳(メタデータ) (2026-03-09T03:38:42Z) - Forget Less, Retain More: A Lightweight Regularizer for Rehearsal-Based Continual Learning [51.07663354001582]
ディープニューラルネットワークは破滅的な忘れ込みに悩まされ、新しいタスクのトレーニング後に以前のタスクのパフォーマンスが低下する。
本稿では,メモリベースの手法と正規化手法の交わりに着目し,この問題に対処する新しいアプローチを提案する。
我々は、メモリベース連続学習法において、情報最大化(IM)正則化と呼ばれる正規化戦略を定式化する。
論文 参考訳(メタデータ) (2025-12-01T15:56:00Z) - Mind the Gap: Preserving and Compensating for the Modality Gap in CLIP-Based Continual Learning [11.50324946279326]
コントラスト言語-画像事前訓練モデル(CLIP)は、様々な下流タスクに強い能力を示す。
視覚言語事前学習モデルの微調整におけるモダリティギャップの変化を分析する。
クラス増分学習におけるCLIPの性能を向上する単純なMG-CLIPを提案する。
論文 参考訳(メタデータ) (2025-07-12T02:28:42Z) - Continual Learning in Vision-Language Models via Aligned Model Merging [84.47520899851557]
塑性を保ちながら安定性を維持するために,モデルマージに基づく新しい視点を提案する。
マージプロセスの有効性を最大化するために,従来のものと一致した重みの学習を促進するシンプルなメカニズムを提案する。
論文 参考訳(メタデータ) (2025-05-30T20:52:21Z) - M2Distill: Multi-Modal Distillation for Lifelong Imitation Learning [9.15567555909617]
M2Distillは、生涯の模倣学習のためのマルチモーダル蒸留に基づく方法である。
我々は、前段階から現在の段階まで、様々なモダリティにわたる潜在表現のシフトを規制する。
学習したポリシーが、新しいスキルをシームレスに統合しながら、以前に学習したタスクを実行する能力を維持していることを保証します。
論文 参考訳(メタデータ) (2024-09-30T01:43:06Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - ReconBoost: Boosting Can Achieve Modality Reconcilement [89.4377895465204]
我々は、調和を達成するために、モダリティ代替学習パラダイムについて研究する。
固定モードを毎回更新するReconBoostと呼ばれる新しい手法を提案する。
提案手法はFriedman's Gradient-Boosting (GB) アルゴリズムに似ており,更新された学習者が他者による誤りを訂正できることを示す。
論文 参考訳(メタデータ) (2024-05-15T13:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。