論文の概要: Spatial Relation Graph and Graph Convolutional Network for Object Goal
Navigation
- arxiv url: http://arxiv.org/abs/2208.13031v1
- Date: Sat, 27 Aug 2022 14:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:29:33.144757
- Title: Spatial Relation Graph and Graph Convolutional Network for Object Goal
Navigation
- Title(参考訳): オブジェクトゴールナビゲーションのための空間関係グラフとグラフ畳み込みネットワーク
- Authors: D. A. Sasi Kiran, Kritika Anand, Chaitanya Kharyal, Gulshan Kumar,
Nandiraju Gireesh, Snehasis Banerjee, Ruddra dev Roychoudhury, Mohan
Sridharan, Brojeshwar Bhowmick, Madhava Krishna
- Abstract要約: 本稿では,ロボットが対象のクラスに最も近いインスタンスをランダムな開始位置から発見・移動する必要があるオブジェクトゴールナビゲーションタスクのためのフレームワークについて述べる。
このフレームワークは、ロボットの歴史を用いて、異なるインスタンスラベル付き領域の近さと、これらの領域における異なるオブジェクトクラスの発生の可能性について、軌道を学習する。
評価中に対象物を見つけるために、ロボットはベイズ推定とSRGを用いて可視領域を推定し、学習したGCN埋め込みを用いて可視領域をランク付けし、次に探索する領域を選択する。
- 参考スコア(独自算出の注目度): 9.127836379667531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes a framework for the object-goal navigation task, which
requires a robot to find and move to the closest instance of a target object
class from a random starting position. The framework uses a history of robot
trajectories to learn a Spatial Relational Graph (SRG) and Graph Convolutional
Network (GCN)-based embeddings for the likelihood of proximity of different
semantically-labeled regions and the occurrence of different object classes in
these regions. To locate a target object instance during evaluation, the robot
uses Bayesian inference and the SRG to estimate the visible regions, and uses
the learned GCN embeddings to rank visible regions and select the region to
explore next.
- Abstract(参考訳): 本稿では,ロボットがランダムな開始位置から対象オブジェクトクラスの最も近いインスタンスを見つけて移動する必要がある,オブジェクト-goalナビゲーションタスクのためのフレームワークについて述べる。
このフレームワークは、異なる意味的ラベル付き領域の近さとこれらの領域における異なるオブジェクトクラスの発生の可能性について、空間関係グラフ(SRG)とグラフ畳み込みネットワーク(GCN)ベースの埋め込みを学ぶために、ロボット軌道の歴史を使用する。
評価中に対象オブジェクトのインスタンスを特定するために、ロボットはベイズ推論とSRGを使用して可視領域を推定し、学習したGCN埋め込みを使用して可視領域をランク付けし、次に探索する領域を選択する。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - GOMAA-Geo: GOal Modality Agnostic Active Geo-localization [49.599465495973654]
エージェントが空中ナビゲーション中に観測された一連の視覚的手がかりを用いて、複数の可能なモダリティによって特定されたターゲットを見つけるという、アクティブなジオローカライゼーション(AGL)の課題を考察する。
GOMAA-Geo は、ゴールモダリティ間のゼロショット一般化のためのゴールモダリティアクティブなジオローカライゼーションエージェントである。
論文 参考訳(メタデータ) (2024-06-04T02:59:36Z) - Building Category Graphs Representation with Spatial and Temporal
Attention for Visual Navigation [35.13932194789583]
視覚ナビゲーションは、興味のある対象が与えられたとき、部分的な観察の順序に基づいて物体の位置に到達することを目的としている。
この目的のために, エージェントは, 1) 学習中の世界のオブジェクトカテゴリの関係について, ある特定の知識を学習し, 2) 学習前のオブジェクトカテゴリ関係と現在目に見えない環境における移動軌跡に基づいて対象オブジェクトを探す必要がある。
対象のカテゴリ配置に関する知識を学習するためのカテゴリ関係グラフ(CRG)と,オブジェクトの長期的空間的依存関係を知覚するTSRアテンションアーキテクチャ(TSR)を提案する。
論文 参考訳(メタデータ) (2023-12-06T07:28:43Z) - ReVoLT: Relational Reasoning and Voronoi Local Graph Planning for
Target-driven Navigation [1.0896567381206714]
Embodied AIは、知的な実体と現実世界の相互作用を強調する必然的なトレンドである。
グラフニューラルネットワーク(GNN)によるレイアウト関係の活用に関する研究
このタスクを分離し、階層的なフレームワークであるReVoLTを提案する。
論文 参考訳(メタデータ) (2023-01-06T05:19:56Z) - Open-Set Object Detection Using Classification-free Object Proposal and
Instance-level Contrastive Learning [25.935629339091697]
オープンセットオブジェクト検出(OSOD)は、オブジェクトと背景分離、オープンセットオブジェクト分類という2つのサブタスクからなる問題を処理するための有望な方向である。
我々は,OSODの課題に対処するため,Openset RCNNを提案する。
我々のOpenset RCNNは、散らばった環境下でロボットの並べ替えタスクをサポートするオープンセットの知覚能力でロボットを支援できることを示します。
論文 参考訳(メタデータ) (2022-11-21T15:00:04Z) - Spatial Commonsense Graph for Object Localisation in Partial Scenes [36.47035776975184]
部分的なシーンにおける物体の局所化は,シーンの部分的な3次元スキャンによって物体の未知の位置を推定する新たな問題である。
提案手法は,新たなシーングラフモデルである空間コモンセンスグラフ(SCG)に基づいて,オブジェクトがノードであり,エッジが相互距離を定義する。
まず、ターゲットオブジェクトを表すノードと観測対象を表すノードの間の距離予測を行うグラフニューラルネットワークであるProximity Prediction NetworkにSCGを供給します。
論文 参考訳(メタデータ) (2022-03-10T14:13:35Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。