論文の概要: OSMa-Bench: Evaluating Open Semantic Mapping Under Varying Lighting Conditions
- arxiv url: http://arxiv.org/abs/2503.10331v1
- Date: Thu, 13 Mar 2025 13:07:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:55:22.947684
- Title: OSMa-Bench: Evaluating Open Semantic Mapping Under Varying Lighting Conditions
- Title(参考訳): OSMa-Bench: 可変照明条件下でのオープンセマンティックマッピングの評価
- Authors: Maxim Popov, Regina Kurkova, Mikhail Iumanov, Jaafar Mahmoud, Sergey Kolyubin,
- Abstract要約: オープンセマンティックマッピング(OSM)は、セマンティックセグメンテーションとSLAM技術を組み合わせたロボット知覚における重要な技術である。
本研究は室内照明条件の異なる条件下での最先端意味マッピングアルゴリズムの評価に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Open Semantic Mapping (OSM) is a key technology in robotic perception, combining semantic segmentation and SLAM techniques. This paper introduces a dynamically configurable and highly automated LLM/LVLM-powered pipeline for evaluating OSM solutions called OSMa-Bench (Open Semantic Mapping Benchmark). The study focuses on evaluating state-of-the-art semantic mapping algorithms under varying indoor lighting conditions, a critical challenge in indoor environments. We introduce a novel dataset with simulated RGB-D sequences and ground truth 3D reconstructions, facilitating the rigorous analysis of mapping performance across different lighting conditions. Through experiments on leading models such as ConceptGraphs, BBQ and OpenScene, we evaluate the semantic fidelity of object recognition and segmentation. Additionally, we introduce a Scene Graph evaluation method to analyze the ability of models to interpret semantic structure. The results provide insights into the robustness of these models, forming future research directions for developing resilient and adaptable robotic systems. Our code is available at https://be2rlab.github.io/OSMa-Bench/.
- Abstract(参考訳): オープンセマンティックマッピング(OSM)は、セマンティックセグメンテーションとSLAM技術を組み合わせたロボット知覚における重要な技術である。
本稿では,OSMa-Bench(Open Semantic Mapping Benchmark)と呼ばれるOSMソリューションを評価するために,動的に構成可能で高度に自動化されたLLM/LVLMパイプラインを提案する。
本研究は屋内照明条件の異なる室内照明条件下での最先端意味マッピングアルゴリズムの評価に焦点を当て,室内環境における重要な課題である。
そこで本研究では,RGB-Dシーケンスと地上の真理3次元再構成をシミュレートした新しいデータセットを導入し,異なる照明条件におけるマッピング性能の厳密な解析を容易にする。
本研究では,ConceptGraphs,BBQ,OpenSceneなどの先行モデルを用いて,オブジェクト認識とセグメンテーションのセグメンテーションのセグメンテーション性を評価する。
さらに、セマンティック構造を解釈するモデルの能力を分析するためのシーングラフ評価手法を提案する。
この結果は、これらのモデルの堅牢性に関する洞察を与え、レジリエントで適応可能なロボットシステムを開発するための将来の研究の方向性を形成する。
私たちのコードはhttps://be2rlab.github.io/OSMa-Bench/で利用可能です。
関連論文リスト
- OSMLoc: Single Image-Based Visual Localization in OpenStreetMap with Geometric and Semantic Guidances [11.085165252259042]
OSMLocは、脳にインスパイアされた単一画像の視覚的位置決め手法であり、精度、堅牢性、一般化能力を改善するための意味的および幾何学的ガイダンスを備えている。
提案したOSMLOCを検証するため,世界規模のクロスエリアとクロスコンディション(CC)のベンチマークを収集し,広範な評価を行う。
論文 参考訳(メタデータ) (2024-11-13T14:59:00Z) - Object-Oriented Material Classification and 3D Clustering for Improved Semantic Perception and Mapping in Mobile Robots [6.395242048226456]
本稿では,オブジェクト指向パイプライン上に構築されたRGB-D教材分類のための補足型ディープラーニング手法を提案する。
本研究では,3次元セマンティックシーンマッピングの最先端手法と比較して,材料分類と3次元クラスタリングの精度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-07-08T16:25:01Z) - Language-EXtended Indoor SLAM (LEXIS): A Versatile System for Real-time
Visual Scene Understanding [0.0]
LEXISはリアルタイム屋内局地化マッピングシステムである。
大規模言語モデルのオープン語彙の性質を活用して、シーン理解と位置認識のための統一的なアプローチを作成する。
レイアウトや寸法の異なる部屋をうまく分類し、最先端のSOTA(State-of-the-art)より優れている。
論文 参考訳(メタデータ) (2023-09-26T16:50:20Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - A Probabilistic Framework for Dynamic Object Recognition in 3D
Environment With A Novel Continuous Ground Estimation Method [0.0]
3次元環境における動的物体認識のための確率的フレームワークを開発し提案する。
ガウス過程回帰(GPR)に基づく新しい手法が開発され、異なる都市シナリオにおける接地点を検出する。
論文 参考訳(メタデータ) (2022-01-27T16:07:10Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - A User's Guide to Calibrating Robotics Simulators [54.85241102329546]
本稿では,シミュレーションで学習したモデルやポリシーを現実世界に伝達することを目的とした,様々なアルゴリズムの研究のためのベンチマークとフレームワークを提案する。
我々は、様々なアルゴリズムの性能に関する洞察を特徴付け、提供するために、広く知られたシミュレーション環境の実験を行う。
我々の分析は、この分野の実践者にとって有用であり、sim-to-realアルゴリズムの動作と主特性について、より深い選択をすることができる。
論文 参考訳(メタデータ) (2020-11-17T22:24:26Z) - Extending Maps with Semantic and Contextual Object Information for Robot
Navigation: a Learning-Based Framework using Visual and Depth Cues [12.984393386954219]
本稿では,RGB-D画像からのセマンティック情報を用いて,シーンのメートル法表現を付加する問題に対処する。
オブジェクトレベルの情報を持つ環境の地図表現を拡張化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T15:05:23Z) - Image Matching across Wide Baselines: From Paper to Practice [80.9424750998559]
局所的な特徴とロバストな推定アルゴリズムの包括的なベンチマークを導入する。
パイプラインのモジュール構造は、さまざまなメソッドの容易な統合、構成、組み合わせを可能にします。
適切な設定で、古典的な解決策は依然として芸術の知覚された状態を上回る可能性があることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。