論文の概要: LIEREx: Language-Image Embeddings for Robotic Exploration
- arxiv url: http://arxiv.org/abs/2602.01930v1
- Date: Mon, 02 Feb 2026 10:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.081085
- Title: LIEREx: Language-Image Embeddings for Robotic Exploration
- Title(参考訳): LIEREx: ロボット探索のための言語画像埋め込み
- Authors: Felix Igelbrink, Lennart Niecksch, Marian Renz, Martin Günther, Martin Atzmueller,
- Abstract要約: 伝統的な写像アプローチは正確な幾何学的表現を提供するが、しばしば事前に設計された記号語彙によって制約される。
CLIPのようなVision-Language Foundation Modelsの最近の進歩は、オブジェクトを固定ラベルではなく高次元の埋め込みとしてエンコードするオープンセットマッピングを可能にする。
LIERExでは、これらのVLFMを既存の3Dセマンティックシーングラフと統合し、部分的に未知の環境で自律エージェントによるターゲット指向探索を可能にする。
- 参考スコア(独自算出の注目度): 1.8630958726929938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic maps allow a robot to reason about its surroundings to fulfill tasks such as navigating known environments, finding specific objects, and exploring unmapped areas. Traditional mapping approaches provide accurate geometric representations but are often constrained by pre-designed symbolic vocabularies. The reliance on fixed object classes makes it impractical to handle out-of-distribution knowledge not defined at design time. Recent advances in Vision-Language Foundation Models, such as CLIP, enable open-set mapping, where objects are encoded as high-dimensional embeddings rather than fixed labels. In LIEREx, we integrate these VLFMs with established 3D Semantic Scene Graphs to enable target-directed exploration by an autonomous agent in partially unknown environments.
- Abstract(参考訳): セマンティックマップによってロボットは、既知の環境をナビゲートしたり、特定の物体を見つけたり、未マッピング領域を探索したりといったタスクをこなすことができる。
伝統的な写像アプローチは正確な幾何学的表現を提供するが、しばしば事前に設計された記号語彙によって制約される。
固定オブジェクトクラスに依存しているため、設計時に定義されていない配布外知識を扱うことは現実的ではない。
CLIPのようなVision-Language Foundation Modelsの最近の進歩は、オブジェクトを固定ラベルではなく高次元の埋め込みとしてエンコードするオープンセットマッピングを可能にする。
LIERExでは、これらのVLFMを既存の3Dセマンティックシーングラフと統合し、部分的に未知の環境で自律エージェントによるターゲット指向探索を可能にする。
関連論文リスト
- ObjectGS: Object-aware Scene Reconstruction and Scene Understanding via Gaussian Splatting [54.92763171355442]
ObjectGSは3Dシーンをセマンティックな理解と統合するオブジェクト認識フレームワークである。
我々はObjectGSがオープンボキャブラリやパン光学のセグメンテーションタスクにおいて最先端の手法より優れていることを示す実験を通して示す。
論文 参考訳(メタデータ) (2025-07-21T10:06:23Z) - A Neural Representation Framework with LLM-Driven Spatial Reasoning for Open-Vocabulary 3D Visual Grounding [78.99798110890157]
Open-vocabulary 3D visual groundingは、自由形式の言語クエリに基づいてターゲットオブジェクトをローカライズすることを目的としている。
既存の言語フィールド手法は、言語クエリにおける空間的関係を利用してインスタンスを正確にローカライズするのに苦労する。
本研究では,大規模言語モデル(LLM)に基づく空間推論を用いたニューラル表現に基づく新しいフレームワークであるSpatialReasonerを提案する。
論文 参考訳(メタデータ) (2025-07-09T10:20:38Z) - FindAnything: Open-Vocabulary and Object-Centric Mapping for Robot Exploration in Any Environment [16.987872206495897]
FindAnythingは、視覚言語情報を高密度のボリュームサブマップに組み込むオープンワールドマッピングフレームワークである。
当社のシステムは,MAVなどのリソース制約されたデバイスにデプロイされる最初のシステムである。
論文 参考訳(メタデータ) (2025-04-11T15:12:05Z) - Online Knowledge Integration for 3D Semantic Mapping: A Survey [3.6437757915645386]
近年のディープラーニングの進歩により、知識グラフや言語概念として表される事前知識を、センサデータ処理やセマンティックマッピングパイプラインに完全に統合することが可能になった。
セマンティックシーングラフと言語モデルにより、現代のセマンティックマッピングアプローチは、グラフベースの事前知識を取り入れたり、マッピングプロセス中と後の両方で人間の言語における豊富な情報を活用することができる。
論文 参考訳(メタデータ) (2024-11-27T08:53:16Z) - Teaching VLMs to Localize Specific Objects from In-context Examples [56.797110842152]
現在、視覚言語モデル(VLM)には、状況を考慮した特定の物体をシーン内でローカライズする学習という、基本的な認知能力がないことが分かっています。
この研究は、VLMのパーソナライズされた数ショットのローカライゼーションを探索し、ベンチマークした初めてのものである。
論文 参考訳(メタデータ) (2024-11-20T13:34:22Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Navigation with Large Language Models: Semantic Guesswork as a Heuristic
for Planning [73.0990339667978]
不慣れな環境でのナビゲーションは、ロボットにとって大きな課題となる。
言語モデルを用いて、新しい現実世界環境のバイアス探索を行う。
実環境におけるLFGの評価とシミュレーションベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-16T06:21:06Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - Extending Maps with Semantic and Contextual Object Information for Robot
Navigation: a Learning-Based Framework using Visual and Depth Cues [12.984393386954219]
本稿では,RGB-D画像からのセマンティック情報を用いて,シーンのメートル法表現を付加する問題に対処する。
オブジェクトレベルの情報を持つ環境の地図表現を拡張化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T15:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。