論文の概要: Open-World Distributed Robot Self-Localization with Transferable Visual Vocabulary and Both Absolute and Relative Features
- arxiv url: http://arxiv.org/abs/2109.04569v3
- Date: Wed, 11 Sep 2024 05:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 22:35:44.030849
- Title: Open-World Distributed Robot Self-Localization with Transferable Visual Vocabulary and Both Absolute and Relative Features
- Title(参考訳): 移動可能な視覚語彙と絶対的・相対的特徴を持つオープンワールド分散ロボットの自己ローカライゼーション
- Authors: Mitsuki Yoshida, Ryogo Yamamoto, Daiki Iwata, Kanji Tanaka,
- Abstract要約: 本研究では,オープンワールド分散ロボットシステムのための新たな自己ローカライズフレームワークを提案する。
教師なしの視覚語彙モデルを採用し、マルチモーダルで軽量で移動可能な視覚特徴にマッピングする。
すべての機能は、軽量グラフニューラルネットワークとシーングラフを使用して学習され、認識される。
- 参考スコア(独自算出の注目度): 1.3499500088995464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual robot self-localization is a fundamental problem in visual robot navigation and has been studied across various problem settings, including monocular and sequential localization. However, many existing studies focus primarily on single-robot scenarios, with limited exploration into general settings involving diverse robots connected through wireless networks with constrained communication capacities, such as open-world distributed robot systems. In particular, issues related to the transfer and sharing of key knowledge, such as visual descriptions and visual vocabulary, between robots have been largely neglected. This work introduces a new self-localization framework designed for open-world distributed robot systems that maintains state-of-the-art performance while offering two key advantages: (1) it employs an unsupervised visual vocabulary model that maps to multimodal, lightweight, and transferable visual features, and (2) the visual vocabulary itself is a lightweight and communication-friendly model. Although the primary focus is on encoding monocular view images, the framework can be easily extended to sequential localization applications. By utilizing complementary similarity-preserving features -- both absolute and relative -- the framework meets the requirements for being unsupervised, multimodal, lightweight, and transferable. All features are learned and recognized using a lightweight graph neural network and scene graph. The effectiveness of the proposed method is validated in both passive and active self-localization scenarios.
- Abstract(参考訳): 視覚ロボットの自己ローカライゼーションは、視覚ロボットナビゲーションの基本的な問題であり、モノクロやシーケンシャルなローカライゼーションを含む様々な問題設定で研究されている。
しかし、既存の多くの研究は、主に単一ロボットのシナリオに焦点を当てており、オープンワールド分散ロボットシステムのような制約のある通信能力を持つ無線ネットワークを介して接続される多様なロボットを含む一般的な設定について限定的な調査を行っている。
特に、ロボット間の視覚記述や視覚語彙などの重要な知識の伝達と共有に関する問題は、ほとんど無視されてきた。
本研究は,1)マルチモーダル,軽量,移動可能な視覚特徴にマップする教師なし視覚語彙モデル,(2)視覚語彙自体が軽量でコミュニケーションに優しいモデルである,という2つの長所を提供する,オープンワールド分散ロボットシステムを対象とした,新たな自己ローカライゼーションフレームワークを提案する。
主な焦点はモノクロビューイメージの符号化であるが、このフレームワークはシーケンシャルなローカライゼーションアプリケーションに容易に拡張できる。
絶対的および相対的両方の相補的な類似性保存機能を活用することで、フレームワークは教師なし、マルチモーダル、軽量、転送可能な要件を満たす。
すべての機能は、軽量グラフニューラルネットワークとシーングラフを使用して学習され、認識される。
提案手法の有効性は,受動的かつ能動的な自己ローカライゼーションシナリオにおいて検証される。
関連論文リスト
- SelfGraphVQA: A Self-Supervised Graph Neural Network for Scene-based
Question Answering [0.0]
シーングラフはマルチモーダル画像解析の有用なツールとして登場した。
理想化されたアノテートシーングラフを利用する現在の手法は、画像から抽出された予測シーングラフを使用する場合、一般化に苦慮している。
本稿では,事前学習したシーングラフ生成器を用いて,入力画像からシーングラフを抽出する。
論文 参考訳(メタデータ) (2023-10-03T07:14:53Z) - Masked Contrastive Graph Representation Learning for Age Estimation [44.96502862249276]
本稿では,画像冗長性情報を扱う上で,グラフ表現学習の特性を利用する。
年齢推定のためのMasked Contrastive Graph Representation Learning (MCGRL)法を提案する。
実世界の顔画像データセットに対する実験結果から,提案手法が他の最先端の年齢推定手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-16T15:53:21Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - Scene Graph Expansion for Semantics-Guided Image Outpainting [27.249757777855176]
本稿では,ノードとエッジの特徴を関連する構造情報をモデル化するための入力として利用するSGT(Scene Graph Transformer)を提案する。
グラフベースの入力をよりよく理解し、処理するために、SGTはノードレベルとエッジレベルの両方で特徴的注意を独自に実行します。
レイアウトとシーングラフを持つ部分的な入力画像を考えると,SGTはシーングラフの拡張と完全なレイアウトへの変換に応用できることを示す。
論文 参考訳(メタデータ) (2022-05-05T23:13:43Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Semi-supervised Hyperspectral Image Classification with Graph Clustering
Convolutional Networks [41.78245271989529]
HSI分類のためのグラフ畳み込みネットワーク(GCN)に基づくフレームワークを提案する。
特に、類似のスペクトル特徴を持つ画素をスーパーピクセルにまずクラスターし、入力したhsiのスーパーピクセルに基づいてグラフを構築する。
その後、エッジを弱い重みで刻むことでいくつかの部分グラフに分割し、高い類似性を持つノードの相関性を強化する。
論文 参考訳(メタデータ) (2020-12-20T14:16:59Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - GPS-Net: Graph Property Sensing Network for Scene Graph Generation [91.60326359082408]
シーングラフ生成(SGG)は、画像内のオブジェクトとそれらのペア関係を検出することを目的としている。
GPS-Netは、エッジ方向情報、ノード間の優先度の差、長期にわたる関係の分布という、SGGの3つの特性を網羅している。
GPS-Netは、VG、OI、VRDの3つの一般的なデータベース上での最先端のパフォーマンスを、さまざまな設定とメトリクスで大幅に向上させる。
論文 参考訳(メタデータ) (2020-03-29T07:22:31Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。