論文の概要: A Decentralized Cooperative Navigation Approach for Visual Homing
Networks
- arxiv url: http://arxiv.org/abs/2310.00906v1
- Date: Mon, 2 Oct 2023 05:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 23:23:36.741805
- Title: A Decentralized Cooperative Navigation Approach for Visual Homing
Networks
- Title(参考訳): 視覚ハミングネットワークのための分散協調ナビゲーション手法
- Authors: Mohamed Rahouti, Damian Lyons, Senthil Kumar Jagatheesaperumal, and
Kaiqi Xiong
- Abstract要約: 異種ロボットチームのための視覚ナビゲーションのためのブロックチェーンアプローチを提案する。
マップデータ構造を必要としないため、この手法は小さな計算フットプリントを持つロボットプラットフォームに有用である。
本稿では、信頼できない視覚ホーミングネットワークにおいて、コンセンサスに到達するための軽量なProof-of-Workメカニズムを提案する。
- 参考スコア(独自算出の注目度): 3.993602109661158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual homing is a lightweight approach to visual navigation. Given the
stored information of an initial 'home' location, the navigation task back to
this location is achieved from any other location by comparing the stored home
information to the current image and extracting a motion vector. A challenge
that constrains the applicability of visual homing is that the home location
must be within the robot's field of view to initiate the homing process. Thus,
we propose a blockchain approach to visual navigation for a heterogeneous robot
team over a wide area of visual navigation. Because it does not require map
data structures, the approach is useful for robot platforms with a small
computational footprint, and because it leverages current visual information,
it supports a resilient and adaptive path selection. Further, we present a
lightweight Proof-of-Work (PoW) mechanism for reaching consensus in the
untrustworthy visual homing network.
- Abstract(参考訳): ビジュアルホーミングはビジュアルナビゲーションに対する軽量なアプローチである。
初期「ホーム」位置の記憶情報から、記憶されたホーム情報を現在の画像と比較し、動きベクトルを抽出することにより、他の場所からこの位置に戻るナビゲーションタスクを実現する。
視覚ホーミングの適用性を制約する課題は、ホームロケーションがホーミングプロセスを開始するために、ロボットの視野内にある必要があることである。
そこで本稿では,異種ロボットチームを対象とした視覚ナビゲーションのためのブロックチェーンアプローチを提案する。
マップデータ構造を必要としないため、この手法は計算フットプリントが小さいロボットプラットフォームに有用であり、現在の視覚情報を活用するため、レジリエントで適応的な経路選択をサポートする。
さらに,信頼できないビジュアルホーミングネットワークにおいて,コンセンサスに達するための軽量なpow機構を提案する。
関連論文リスト
- Aligning Knowledge Graph with Visual Perception for Object-goal Navigation [16.32780793344835]
オブジェクトゴールナビゲーションのための視覚知覚付きアライニング知識グラフ(AKGVP)を提案する。
提案手法では,階層型シーンアーキテクチャの連続的モデリングを導入し,自然言語記述と視覚知覚との整合性を確保するために,視覚-言語事前学習を活用する。
継続的知識グラフアーキテクチャとマルチモーダル機能アライメントの統合により、ナビゲータは目覚ましいゼロショットナビゲーション能力を持つ。
論文 参考訳(メタデータ) (2024-02-29T06:31:18Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - UNav: An Infrastructure-Independent Vision-Based Navigation System for
People with Blindness and Low vision [4.128685217530067]
視覚障害者のためのナビゲーション支援のための視覚に基づくローカライゼーションパイプラインを提案する。
モバイルアプリケーション上でエンドユーザが取得したクエリ画像に対して、パイプラインは視覚的位置認識(VPR)アルゴリズムを活用して、参照画像データベースで類似した画像を見つける。
カスタマイズされたユーザインタフェースは、一連の画像から構築された3D再構成されたスパースマップを、対応する2Dフロアプランに投影する。
論文 参考訳(メタデータ) (2022-09-22T22:21:37Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z) - VTNet: Visual Transformer Network for Object Goal Navigation [36.15625223586484]
ナビゲーションにおける情報的視覚表現を学習するためのVisual Transformer Network(VTNet)を導入する。
簡単に言うと、VTNetはオブジェクトとリージョンの機能を、空間認識ディスクリプタとして位置キューで埋め込む。
人工環境におけるAI2-Thorの実験は、VTNetが目に見えないテスト環境で最先端の手法を著しく上回っていることを実証している。
論文 参考訳(メタデータ) (2021-05-20T01:23:15Z) - Pathdreamer: A World Model for Indoor Navigation [62.78410447776939]
本研究では,新しい屋内環境をナビゲートするエージェントの視覚的世界モデルPathdreamerを紹介する。
過去に1つ以上の視覚観測がなされると、パスドレーマーは可視性の高い高解像度の360度視覚観測を生成する。
不確実性の高い地域では、Pathdreamerは多様なシーンを予測でき、エージェントは複数の現実的な結果をサンプリングすることができる。
論文 参考訳(メタデータ) (2021-05-18T18:13:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。