論文の概要: Arcadia: Toward a Full-Lifecycle Framework for Embodied Lifelong Learning
- arxiv url: http://arxiv.org/abs/2512.00076v1
- Date: Tue, 25 Nov 2025 07:26:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.043332
- Title: Arcadia: Toward a Full-Lifecycle Framework for Embodied Lifelong Learning
- Title(参考訳): Arcadia: 生涯学習のためのフルライフサイクルフレームワーク
- Authors: Minghe Gao, Juncheng Li, Yuze Lin, Xuqi Liu, Jiaming Ji, Xiaoran Pan, Zihan Xu, Xian Li, Mingjie Li, Wei Ji, Rong Wei, Rui Tang, Qizhou Wang, Kai Shen, Jun Xiao, Qi Wu, Siliang Tang, Yueting Zhuang,
- Abstract要約: 閉ループフレームワークであるArcadiaを導入し,4段階を密結合させることで生涯学習を実践する。
Arcadiaは、ナビゲーションと操作ベンチマークに一貫した利益をもたらし、物理的なロボットにしっかりと転送する。
- 参考スコア(独自算出の注目度): 80.6669596031697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We contend that embodied learning is fundamentally a lifecycle problem rather than a single-stage optimization. Systems that optimize only one link (data collection, simulation, learning, or deployment) rarely sustain improvement or generalize beyond narrow settings. We introduce Arcadia, a closed-loop framework that operationalizes embodied lifelong learning by tightly coupling four stages: (1) Self-evolving exploration and grounding for autonomous data acquisition in physical environments, (2) Generative scene reconstruction and augmentation for realistic and extensible scene creation, (3) a Shared embodied representation architecture that unifies navigation and manipulation within a single multimodal backbone, and (4) Sim-from-real evaluation and evolution that closes the feedback loop through simulation-based adaptation. This coupling is non-decomposable: removing any stage breaks the improvement loop and reverts to one-shot training. Arcadia delivers consistent gains on navigation and manipulation benchmarks and transfers robustly to physical robots, indicating that a tightly coupled lifecycle: continuous real-world data acquisition, generative simulation update, and shared-representation learning, supports lifelong improvement and end-to-end generalization. We release standardized interfaces enabling reproducible evaluation and cross-model comparison in reusable environments, positioning Arcadia as a scalable foundation for general-purpose embodied agents.
- Abstract(参考訳): 具体的学習は基本的に単段階最適化よりもライフサイクルの問題である,と我々は主張する。
1つのリンク(データ収集、シミュレーション、学習、デプロイメント)だけを最適化するシステムは、狭い設定を超えて改善や一般化を持続することは滅多にありません。
本研究では,(1)物理的環境における自律的データ取得のための自己進化的探索と基盤化,(2)現実的で拡張可能なシーン生成のための生成的シーン再構築と拡張,(3)単一のマルチモーダルバックボーン内でのナビゲーションと操作を統一する共有エンボディド表現アーキテクチャ,(4)シミュレーションベースの適応を通じてフィードバックループを閉じるシミュレート・オブ・リアル評価と進化の4つの段階を密結合して実施する閉ループ・フレームワークであるArcadiaを紹介する。
この結合は非分解可能で、どのステージも削除しても改善ループを破り、ワンショットのトレーニングに戻る。
Arcadiaはナビゲーションと操作のベンチマークを一貫して向上させ、物理的なロボットに堅牢に転送することで、継続的な実世界のデータ取得、生成シミュレーションのアップデート、共有表現学習といった密結合したライフサイクルが、生涯的改善とエンドツーエンドの一般化をサポートすることを示唆している。
我々は,再現性評価と再利用可能な環境におけるクロスモデル比較を可能にする標準化されたインタフェースをリリースし,Arcadiaを汎用エンボディエージェントのスケーラブルな基盤として位置づけた。
関連論文リスト
- Experience Scaling: Post-Deployment Evolution For Large Language Models [44.48142891798125]
大規模言語モデル(LLM)の継続的デプロイ後進化のためのフレームワークであるエクスペリエンススケーリングを提案する。
このフレームワークは,以前には見つからなかったが関連するタスク,繰り返しクエリ,過飽和知識ストアへの一般化を含む実世界のシナリオで検証される。
その結果、構造化されたデプロイ後学習は、静的な人間生成データの限界を超えてLLM能力を拡張できることを示した。
論文 参考訳(メタデータ) (2025-09-23T08:04:58Z) - From Seeing to Experiencing: Scaling Navigation Foundation Models with Reinforcement Learning [59.88543114325153]
本稿では,航法基礎モデルの強化学習能力を高めるためのSeeing-to-Experiencingフレームワークを提案する。
S2Eは、ビデオの事前トレーニングとRLによるポストトレーニングの長所を組み合わせたものだ。
実世界のシーンを3DGSで再現した3D画像に基づく総合的なエンドツーエンド評価ベンチマークであるNavBench-GSを構築した。
論文 参考訳(メタデータ) (2025-07-29T17:26:10Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Reusable Architecture Growth for Continual Stereo Matching [92.36221737921274]
我々は、教師付きおよび自己監督型の両方で、新しいシーンを継続的に学習するための、再利用可能なアーキテクチャ成長(RAG)フレームワークを紹介します。
RAGは、前のユニットを再利用し、良好な性能を得ることにより、成長中の高い再利用性を維持することができる。
また、推論時にシーン固有のアーキテクチャパスを適応的に選択するScene Routerモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:24:58Z) - SimVPv2: Towards Simple yet Powerful Spatiotemporal Predictive Learning [61.419914155985886]
空間的・時間的モデリングにおけるUnetアーキテクチャの必要性を解消する合理化モデルであるSimVPv2を提案する。
SimVPv2はモデルアーキテクチャを単純化するだけでなく、性能と計算効率も改善する。
標準のMoving MNISTベンチマークでは、SimVPv2は、FLOPが少なく、トレーニング時間の半分、推論効率が60%速く、SimVPよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-11-22T08:01:33Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。