論文の概要: Dynamic Objects Relocalization in Changing Environments with Flow Matching
- arxiv url: http://arxiv.org/abs/2509.16398v1
- Date: Fri, 19 Sep 2025 20:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.773
- Title: Dynamic Objects Relocalization in Changing Environments with Flow Matching
- Title(参考訳): フローマッチングによる環境変化における動的物体再局在
- Authors: Francesco Argenziano, Miguel Saavedra-Ruiz, Sacha Morin, Daniele Nardi, Liam Paull,
- Abstract要約: FlowMapsはFlow Matchingに基づいたモデルであり、空間と時間にわたってマルチモーダルオブジェクトの位置を推測することができる。
我々の結果は、我々の仮説を支持する統計的証拠を示し、我々のアプローチのより複雑な応用への道を開く。
- 参考スコア(独自算出の注目度): 9.997314076120956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task and motion planning are long-standing challenges in robotics, especially when robots have to deal with dynamic environments exhibiting long-term dynamics, such as households or warehouses. In these environments, long-term dynamics mostly stem from human activities, since previously detected objects can be moved or removed from the scene. This adds the necessity to find such objects again before completing the designed task, increasing the risk of failure due to missed relocalizations. However, in these settings, the nature of such human-object interactions is often overlooked, despite being governed by common habits and repetitive patterns. Our conjecture is that these cues can be exploited to recover the most likely objects' positions in the scene, helping to address the problem of unknown relocalization in changing environments. To this end we propose FlowMaps, a model based on Flow Matching that is able to infer multimodal object locations over space and time. Our results present statistical evidence to support our hypotheses, opening the way to more complex applications of our approach. The code is publically available at https://github.com/Fra-Tsuna/flowmaps
- Abstract(参考訳): タスク・アンド・モーション・プランニングはロボット工学における長年の課題であり、特にロボットが家庭や倉庫などの長期的ダイナミクスを示す動的な環境に対処しなければならない場合である。
これらの環境では、これまで検出された物体をシーンから移動または除去できるため、長期的なダイナミクスは主に人間の活動に由来する。
これにより、設計されたタスクが完了する前にそのようなオブジェクトを見つける必要が生まれ、再ローカライゼーションの失敗による失敗のリスクが増大する。
しかし、これらの設定では、共通の習慣や反復パターンによって支配されているにもかかわらず、このような人間と物体の相互作用の性質は見過ごされがちである。
我々の予想では、これらの手がかりはシーン内の最も可能性の高い物体の位置を復元するために利用することができ、環境変化における未知の再局在の問題に対処するのに役立ちます。
この目的のために,フローマッチングに基づくモデルであるFlowMapsを提案する。
我々の結果は、我々の仮説を支持する統計的証拠を示し、我々のアプローチのより複雑な応用への道を開く。
コードはhttps://github.com/Fra-Tsuna/flowmapsで公開されている。
関連論文リスト
- BYE: Build Your Encoder with One Sequence of Exploration Data for Long-Term Dynamic Scene Understanding [18.991160292960277]
BYEはクラスに依存しない、シーン毎のクラウドエンコーダで、事前に定義されたカテゴリ、シェイププレファレンス、あるいは広範囲のアソシエーションデータセットの必要性を取り除く。
本稿では,視覚言語モデルとBYEのシーン固有の専門知識を組み合わせたアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T13:34:42Z) - DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - Outlier-Robust Long-Term Robotic Mapping Leveraging Ground Segmentation [1.7948767405202701]
箱から出られる堅牢な長期ロボットマッピングシステムを提案する。
i) 外れ値の存在を否定する高速で頑健な接地分割を提案する。
粗悪なアウトリールの存在を包含する地盤セグメンテーションによるロバストな登録を提案する。
論文 参考訳(メタデータ) (2024-05-18T04:56:15Z) - Right Place, Right Time! Dynamizing Topological Graphs for Embodied Navigation [55.581423861790945]
身体的ナビゲーションのタスクは、探索中にシーンのトポロジカルグラフを構築することを伴うことが多い。
我々は、オブジェクト遷移グラフ(OTG)と呼ばれる静的トポロジカルグラフをダイナマイズするために、構造化されたオブジェクト遷移を導入する。
OTGは、人間の習慣にインスパイアされた構造化経路に従って、ポータブルターゲットをシミュレートする。
論文 参考訳(メタデータ) (2024-03-14T22:33:22Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - STOW: Discrete-Frame Segmentation and Tracking of Unseen Objects for
Warehouse Picking Robots [41.017649190833076]
本稿では,変圧器モジュールとともに離散フレームにおける関節分割と追跡のための新しいパラダイムを提案する。
実験の結果,本手法は近年の手法よりも著しく優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T06:52:38Z) - Robot Active Neural Sensing and Planning in Unknown Cluttered
Environments [0.0]
未知の乱雑な環境でのアクティブなセンシングと計画は、ホームサービス、探索と救助、狭い通行検査、医療支援を提供するロボットにとって、オープンな課題である。
本研究は,ロボットマニピュレータの動力学的に実現可能な視点列を手動カメラで生成し,基礎環境の再構築に必要な観測回数を最小化するための能動型ニューラルセンシング手法を提案する。
我々のフレームワークは視覚的RGBD観測を積極的に収集し、それらをシーン表現に集約し、環境との不要なロボットの相互作用を避けるためにオブジェクト形状推論を行う。
論文 参考訳(メタデータ) (2022-08-23T16:56:54Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。