論文の概要: CoFL: Continuous Flow Fields for Language-Conditioned Navigation
- arxiv url: http://arxiv.org/abs/2603.02854v1
- Date: Tue, 03 Mar 2026 11:02:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.756858
- Title: CoFL: Continuous Flow Fields for Language-Conditioned Navigation
- Title(参考訳): CoFL: 言語定義ナビゲーションのための継続的フローフィールド
- Authors: Haokun Liu, Zhaoqi Ma, Yicheng Chen, Masaki Kitagawa, Wentao Zhang, Jinjie Li, Moju Zhao,
- Abstract要約: CoFLは、鳥眼ビュー(BEV)観察と言語指導をナビゲーションのための連続フローフィールドにマッピングするエンドツーエンドのポリシーである。
混合分布の訓練により、CoFLはモジュラービジョン・ランゲージ・モデル(VLM)ベースのプランナーよりも大幅に優れている。
- 参考スコア(独自算出の注目度): 14.35468089349405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language-conditioned navigation pipelines often rely on brittle modular components or costly action-sequence generation. To address these limitations, we present CoFL, an end-to-end policy that directly maps a bird's-eye view (BEV) observation and a language instruction to a continuous flow field for navigation. Instead of predicting discrete action tokens or sampling action chunks via iterative denoising, CoFL outputs instantaneous velocities that can be queried at arbitrary 2D projected locations. Trajectories are obtained by numerical integration of the predicted field, producing smooth motion that remains reactive under closed-loop execution. To enable large-scale training, we build a dataset of over 500k BEV image-instruction pairs, each procedurally annotated with a flow field and a trajectory derived from BEV semantic maps built on Matterport3D and ScanNet. By training on a mixed distribution, CoFL significantly outperforms modular Vision-Language Model (VLM)-based planners and generative policy baselines on strictly unseen scenes. Finally, we deploy CoFL zero-shot in real-world experiments with overhead BEV observations across multiple layouts, maintaining reliable closed-loop control and a high success rate.
- Abstract(参考訳): 言語条件のナビゲーションパイプラインは、脆弱なモジュールコンポーネントやコストのかかるアクションシーケンス生成に依存していることが多い。
このような制約に対処するため,我々は,鳥眼ビュー(BEV)の観察と言語指導を直接,ナビゲーションのための連続フローフィールドにマッピングする,エンドツーエンドのポリシーであるCoFLを提案する。
個別のアクショントークンを予測したり、反復的なdenoisingを通じてアクションチャンクをサンプリングする代わりに、CoFLは任意の2D投影された場所でクエリ可能な瞬時速度を出力する。
軌道は、予測された場の数値積分により得られ、閉ループ実行下では反応しない滑らかな運動を生成する。
大規模トレーニングを実現するために,Matterport3D と ScanNet 上に構築された BEV セマンティックマップから派生した,500k 以上の BEV イメージインストラクションペアのデータセットを構築した。
混合分布のトレーニングにより、CoFLはモジュール型ビジョンランゲージモデル(VLM)ベースのプランナーと、厳密な見えないシーンで生成ポリシーベースラインを著しく上回っている。
最後に,複数レイアウトにわたるオーバヘッドBEV観測による実世界の実験において,CoFLゼロショットをデプロイし,信頼性の高い閉ループ制御と高い成功率を維持する。
関連論文リスト
- LatentAM: Real-Time, Large-Scale Latent Gaussian Attention Mapping via Online Dictionary Learning [1.9229388624311596]
LatentAMは、オープン語彙ロボット知覚のためのストリーミングRGB-D観測から潜在機能マップを構築する。
本稿では,モデルに依存しない,事前学習のないオンライン辞書学習手法を提案する。
公開ベンチマークと大規模なカスタムデータセットの実験では、LatentAMが機能再構築の忠実性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2026-02-12T17:25:00Z) - Steering Vision-Language-Action Models as Anti-Exploration: A Test-Time Scaling Approach [78.4812458793128]
動作チャンクの高忠実度検証に軽量な擬数推定器を適用したテスト時間スケーリングフレームワークである textbfTACO を提案する。
我々の手法は、オフライン強化学習(RL)における古典的な反探索原理に似ており、勾配のないため、計算上の大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-12-02T14:42:54Z) - Vehicle-to-Infrastructure Collaborative Spatial Perception via Multimodal Large Language Models [41.00138090010061]
大型言語モデル (MLLM) の限界を克服するために, 軽量でプラグアンドプレイの鳥眼ビュー (BEV) インジェクションコネクタを提案する。
レイトレーシングはRGB、LiDAR、GPS、無線信号データを様々なセンシングシナリオで生成するために開発された。
シミュレーションの結果,提案したBEVインジェクションフレームワークは全タスクのパフォーマンスを継続的に改善していることがわかった。
論文 参考訳(メタデータ) (2025-09-04T02:57:47Z) - VLN-R1: Vision-Language Navigation via Reinforcement Fine-Tuning [77.34267241692706]
Vision-Language Navigation(VLN)は、エージェントが自然言語命令を使用して現実世界の環境をナビゲートする必要がある、AIの実施における中核的な課題である。
本稿では、LVLM(Large Vision-Language Models)を利用して、エゴセントリックな動画ストリームを連続的なナビゲーションアクションに変換するエンドツーエンドフレームワークであるVLN-R1を提案する。
論文 参考訳(メタデータ) (2025-06-20T17:59:59Z) - FLEX: A Backbone for Diffusion-Based Modeling of Spatio-temporal Physical Systems [51.15230303652732]
FLEX (F Low Expert) は、時間物理系の生成モデリングのためのバックボーンアーキテクチャである。
拡散モデルにおける速度場の分散を低減し、トレーニングの安定化に役立つ。
少数の特徴を2つの逆拡散ステップとして用いて、超解像および予測タスクの正確な予測を行う。
論文 参考訳(メタデータ) (2025-05-23T00:07:59Z) - BEVDiffLoc: End-to-End LiDAR Global Localization in BEV View based on Diffusion Model [8.720833232645155]
Bird's-Eye-View (BEV) 画像は、自動運転において最も広く採用されているデータ表現の1つである。
ポーズの条件生成としてLiDAR局所化を定式化する新しいフレームワークであるBEVDiffLocを提案する。
論文 参考訳(メタデータ) (2025-03-14T13:17:43Z) - Unified Human Localization and Trajectory Prediction with Monocular Vision [64.19384064365431]
MonoTransmotionはトランスフォーマーベースのフレームワークで、モノクロカメラのみを使用して、ローカライゼーションと予測タスクを共同で解決する。
両タスクを統合フレームワークで共同でトレーニングすることにより,ノイズの多い入力による実環境シナリオにおいて,我々の手法がより堅牢であることを示す。
論文 参考訳(メタデータ) (2025-03-05T14:18:39Z) - BEVWorld: A Multimodal World Simulator for Autonomous Driving via Scene-Level BEV Latents [56.33989853438012]
BEVWorldは,マルチモーダルセンサ入力を統一的でコンパクトなBird's Eye View潜在空間に変換し,全体的環境モデリングを行うフレームワークである。
提案する世界モデルは,多モードトークン化器と遅延BEVシーケンス拡散モデルという2つの主要成分から構成される。
論文 参考訳(メタデータ) (2024-07-08T07:26:08Z) - BEVBert: Multimodal Map Pre-training for Language-guided Navigation [75.23388288113817]
視覚・言語ナビゲーション(VLN)における空間認識型マップベース事前学習パラダイムを提案する。
我々は,グローバルなトポロジカルマップにおけるナビゲーション依存性をモデル化しながら,不完全な観測を明示的に集約し,重複を取り除くための局所距離マップを構築した。
ハイブリッドマップをベースとして,マルチモーダルマップ表現を学習するための事前学習フレームワークを考案し,空間認識型クロスモーダル推論を強化し,言語誘導ナビゲーションの目標を導出する。
論文 参考訳(メタデータ) (2022-12-08T16:27:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。