論文の概要: Graph-based Robot Localization Using a Graph Neural Network with a Floor Camera and a Feature Rich Industrial Floor
- arxiv url: http://arxiv.org/abs/2508.06177v1
- Date: Fri, 08 Aug 2025 09:46:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.184128
- Title: Graph-based Robot Localization Using a Graph Neural Network with a Floor Camera and a Feature Rich Industrial Floor
- Title(参考訳): フローアカメラと特徴リッチ産業フロアを用いたグラフニューラルネットワークを用いたグラフベースロボットの定位
- Authors: Dominik Brämer, Diana Kleingarn, Oliver Urbann,
- Abstract要約: グラフベースの表現とグラフ畳み込みネットワーク(GCN)を用いて,フロアリング特性を利用した革新的なフレームワークを提案する。
提案手法では, 床面の特徴をグラフで表現することで, 個々の画像特徴を比較するよりも, より正確に(0.64cmの誤差) かつ効率的にロボットをローカライズすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate localization represents a fundamental challenge in robotic navigation. Traditional methodologies, such as Lidar or QR-code based systems, suffer from inherent scalability and adaptability con straints, particularly in complex environments. In this work, we propose an innovative localization framework that harnesses flooring characteris tics by employing graph-based representations and Graph Convolutional Networks (GCNs). Our method uses graphs to represent floor features, which helps localize the robot more accurately (0.64cm error) and more efficiently than comparing individual image features. Additionally, this approach successfully addresses the kidnapped robot problem in every frame without requiring complex filtering processes. These advancements open up new possibilities for robotic navigation in diverse environments.
- Abstract(参考訳): 正確な位置決めは、ロボットナビゲーションにおける根本的な課題である。
LidarやQRコードベースのシステムのような従来の方法論は、特に複雑な環境で、固有のスケーラビリティと適応性に悩まされている。
本研究では,グラフベースの表現とグラフ畳み込みネットワーク(GCN)を用いて,フロアリング特性を利用した革新的なローカライゼーションフレームワークを提案する。
提案手法では, 床面の特徴をグラフで表現することで, 個々の画像特徴を比較するよりも, より正確に(0.64cmの誤差) かつ効率的にロボットをローカライズすることができる。
さらに、複雑なフィルタリング処理を必要とせず、各フレームにおける誘拐されたロボットの問題に対処することに成功した。
これらの進歩は、多様な環境におけるロボットナビゲーションの新たな可能性を開く。
関連論文リスト
- Hi-Dyna Graph: Hierarchical Dynamic Scene Graph for Robotic Autonomy in Human-Centric Environments [41.80879866951797]
Hi-Dyna Graphは階層的な動的シーングラフアーキテクチャで、永続的なグローバルレイアウトと局所的な動的セマンティクスを統合し、ロボットの自律性を具現化する。
大型言語モデル(LLM)を利用したエージェントを用いて、統一されたグラフを解釈し、遅延タスクトリガーを推論し、ロボットの余裕に基づいて実行可能な命令を生成する。
論文 参考訳(メタデータ) (2025-05-30T03:35:29Z) - Watch Your STEPP: Semantic Traversability Estimation using Pose Projected Features [4.392942391043664]
人間の歩行のデモンストレーションから学ぶことにより,地形の移動性を評価する手法を提案する。
提案手法は,DINOv2視覚変換器モデルを用いて生成した高密度画素ワイドな特徴埋め込みを利用する。
損失を最小化することにより、ネットワークは、低い復元誤差で見慣れた地形と、高い復元誤差で見慣れないまたは危険な地形とを区別する。
論文 参考訳(メタデータ) (2025-01-29T11:53:58Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven Approach [47.373245682678515]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - Online Learning of Wheel Odometry Correction for Mobile Robots with
Attention-based Neural Network [63.8376359764052]
現代のロボットプラットフォームは、人間の横で毎日運用するために、信頼性の高いローカライゼーションシステムを必要としている。
フィルタされた車輪と慣性オドメトリーに基づく単純なポーズ推定アルゴリズムは、急激なキネマティックな変化とホイールスリップの存在下で失敗することが多い。
本稿では,車輪形状補正のための革新的なオンライン学習手法を提案し,ロバストなマルチソースローカライゼーションシステムを提案する。
論文 参考訳(メタデータ) (2023-03-21T10:30:31Z) - Sparse Image based Navigation Architecture to Mitigate the need of
precise Localization in Mobile Robots [3.1556608426768324]
本稿では,スパース画像を用いた自律走行を追求する移動ロボットの正確な位置決めの必要性を軽減することに焦点を当てる。
提案手法は,教師なし学習のためのモデルアーキテクチャであるRoomNetで構成され,環境の粗い同定を行う。
後者はスパース画像マッチングを用いて、マッピングおよびトレーニング段階においてロボットが見たフレームをvis-a-visで達成したフレームの類似性を特徴付ける。
論文 参考訳(メタデータ) (2022-03-29T06:38:18Z) - OG-SGG: Ontology-Guided Scene Graph Generation. A Case Study in Transfer
Learning for Telepresence Robotics [124.08684545010664]
画像からのシーングラフ生成は、ロボット工学のようなアプリケーションに非常に関心を持つタスクである。
オントロジー誘導シーングラフ生成(OG-SGG)と呼ばれるフレームワークの初期近似を提案する。
論文 参考訳(メタデータ) (2022-02-21T13:23:15Z) - Open-World Distributed Robot Self-Localization with Transferable Visual Vocabulary and Both Absolute and Relative Features [1.3499500088995464]
本研究では,オープンワールド分散ロボットシステムのための新たな自己ローカライズフレームワークを提案する。
教師なしの視覚語彙モデルを採用し、マルチモーダルで軽量で移動可能な視覚特徴にマッピングする。
すべての機能は、軽量グラフニューラルネットワークとシーングラフを使用して学習され、認識される。
論文 参考訳(メタデータ) (2021-09-09T21:49:03Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Large Scale Distributed Collaborative Unlabeled Motion Planning with
Graph Policy Gradients [122.85280150421175]
本研究では,運動制約と空間制約を多数のロボットに対して2次元空間で解くための学習法を提案する。
ロボットのポリシーをパラメータ化するためにグラフニューラルネットワーク(GNN)を用いる。
論文 参考訳(メタデータ) (2021-02-11T21:57:43Z) - Kimera-Multi: a System for Distributed Multi-Robot Metric-Semantic
Simultaneous Localization and Mapping [57.173793973480656]
本稿では,高密度メカニカル・セマンティックSLAMのための完全分散マルチロボットシステムを提案する。
私たちのシステムはKimera-Multiと呼ばれ、視覚慣性センサーを備えたロボットチームによって実装されています。
Kimera-Multiは環境の3Dメッシュモデルをリアルタイムで構築し、メッシュの各面にセマンティックラベルをアノテートする。
論文 参考訳(メタデータ) (2020-11-08T21:38:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。