論文の概要: Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning
- arxiv url: http://arxiv.org/abs/2011.01397v1
- Date: Tue, 3 Nov 2020 00:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:36:28.015759
- Title: Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning
- Title(参考訳): 定性的空間推論を用いた多視点誘導ナビゲーション
- Authors: Danilo Perico and Paulo E. Santos and Reinaldo Bianchi
- Abstract要約: 本研究の目的は、感覚障害者ロボットを目標地点に誘導するアルゴリズムを開発することである。
この研究で考慮される主な課題は、自律的なエージェントのグループを考えると、一連のハイレベルなコマンドを生成できるアルゴリズムの開発と評価である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigation is an essential ability for mobile agents to be completely
autonomous and able to perform complex actions. However, the problem of
navigation for agents with limited (or no) perception of the world, or devoid
of a fully defined motion model, has received little attention from research in
AI and Robotics. One way to tackle this problem is to use guided navigation, in
which other autonomous agents, endowed with perception, can combine their
distinct viewpoints to infer the localisation and the appropriate commands to
guide a sensory deprived agent through a particular path. Due to the limited
knowledge about the physical and perceptual characteristics of the guided
agent, this task should be conducted on a level of abstraction allowing the use
of a generic motion model, and high-level commands, that can be applied by any
type of autonomous agents, including humans. The main task considered in this
work is, given a group of autonomous agents perceiving their common environment
with their independent, egocentric and local vision sensors, the development
and evaluation of algorithms capable of producing a set of high-level commands
(involving qualitative directions: e.g. move left, go straight ahead) capable
of guiding a sensory deprived robot to a goal location.
- Abstract(参考訳): ナビゲーションは、モバイルエージェントが完全に自律し、複雑なアクションを実行するために必要な機能である。
しかし、世界の限られた(または全く)知覚を持つエージェントや、完全に定義されたモーションモデルがないエージェントのナビゲーション問題は、AIとロボティクスの研究からほとんど注目を集めていない。
この問題に対処する1つの方法は、他の自律的なエージェントに知覚を付与した誘導ナビゲーションを使用することで、それぞれの視点を組み合わせることで、局所化を推測し、知覚不足エージェントを特定の経路を導く適切な命令を導くことができる。
誘導エージェントの物理的および知覚的特性に関する知識が限られているため、このタスクは、人間を含む任意の種類の自律エージェントが適用可能な汎用運動モデルとハイレベルコマンドの使用を可能にする抽象レベルで実行されるべきである。
本研究で考慮される主な課題は,自発的なエージェント群が,自発的,自発的,局所的な視覚センサと共通の環境を認識すれば,知覚を欠いたロボットを目標位置まで導くことのできる,一連の高レベルコマンド(定性的な方向:例えば左へ移動する,直進する)を生成可能なアルゴリズムの開発と評価を行うことである。
関連論文リスト
- FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - A Language Agent for Autonomous Driving [33.64382018350317]
本稿では,人間のような知性を自律運転システムに統合するためのパラダイムシフトを提案する。
当社のアプローチは、Agent-Driverと呼ばれ、従来の自動運転パイプラインを変換します。
我々の手法は最先端の運転方法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2023-11-17T18:59:56Z) - STERLING: Self-Supervised Terrain Representation Learning from
Unconstrained Robot Experience [43.49602846732077]
自己教師型テレイン表現学習(STERling)について紹介する。
STERlingは、地形表現を学習するための新しいアプローチであり、簡単に編集できる、制約のない(例えば、非専門家)、非ラベルのロボット体験にのみ依存する。
我々は、優先的な視覚ナビゲーションのタスクにおけるSTERling機能を評価し、STERling機能が完全に教師付きされたアプローチと同等に機能することを見出した。
論文 参考訳(メタデータ) (2023-09-26T22:55:32Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。