論文の概要: Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning
- arxiv url: http://arxiv.org/abs/2011.01397v1
- Date: Tue, 3 Nov 2020 00:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:36:28.015759
- Title: Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning
- Title(参考訳): 定性的空間推論を用いた多視点誘導ナビゲーション
- Authors: Danilo Perico and Paulo E. Santos and Reinaldo Bianchi
- Abstract要約: 本研究の目的は、感覚障害者ロボットを目標地点に誘導するアルゴリズムを開発することである。
この研究で考慮される主な課題は、自律的なエージェントのグループを考えると、一連のハイレベルなコマンドを生成できるアルゴリズムの開発と評価である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigation is an essential ability for mobile agents to be completely
autonomous and able to perform complex actions. However, the problem of
navigation for agents with limited (or no) perception of the world, or devoid
of a fully defined motion model, has received little attention from research in
AI and Robotics. One way to tackle this problem is to use guided navigation, in
which other autonomous agents, endowed with perception, can combine their
distinct viewpoints to infer the localisation and the appropriate commands to
guide a sensory deprived agent through a particular path. Due to the limited
knowledge about the physical and perceptual characteristics of the guided
agent, this task should be conducted on a level of abstraction allowing the use
of a generic motion model, and high-level commands, that can be applied by any
type of autonomous agents, including humans. The main task considered in this
work is, given a group of autonomous agents perceiving their common environment
with their independent, egocentric and local vision sensors, the development
and evaluation of algorithms capable of producing a set of high-level commands
(involving qualitative directions: e.g. move left, go straight ahead) capable
of guiding a sensory deprived robot to a goal location.
- Abstract(参考訳): ナビゲーションは、モバイルエージェントが完全に自律し、複雑なアクションを実行するために必要な機能である。
しかし、世界の限られた(または全く)知覚を持つエージェントや、完全に定義されたモーションモデルがないエージェントのナビゲーション問題は、AIとロボティクスの研究からほとんど注目を集めていない。
この問題に対処する1つの方法は、他の自律的なエージェントに知覚を付与した誘導ナビゲーションを使用することで、それぞれの視点を組み合わせることで、局所化を推測し、知覚不足エージェントを特定の経路を導く適切な命令を導くことができる。
誘導エージェントの物理的および知覚的特性に関する知識が限られているため、このタスクは、人間を含む任意の種類の自律エージェントが適用可能な汎用運動モデルとハイレベルコマンドの使用を可能にする抽象レベルで実行されるべきである。
本研究で考慮される主な課題は,自発的なエージェント群が,自発的,自発的,局所的な視覚センサと共通の環境を認識すれば,知覚を欠いたロボットを目標位置まで導くことのできる,一連の高レベルコマンド(定性的な方向:例えば左へ移動する,直進する)を生成可能なアルゴリズムの開発と評価を行うことである。
関連論文リスト
- Aligning Robot Navigation Behaviors with Human Intentions and Preferences [2.9914612342004503]
この論文は,「自律移動ロボットのナビゲーション行動と人間の意図と嗜好を一致させるために,機械学習手法をどのように利用できるのか?」という疑問に答えることを目的としている。
第一に、この論文は、意図したナビゲーションタスクの人間が提供する実演を模倣することにより、ナビゲーション行動を学ぶための新しいアプローチを導入している。
第二に、この論文は、視覚的な地形認識を自己監督的に学習することで、移動ロボットの地形認識オフロードナビゲーションを強化する2つのアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-09-16T03:45:00Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - A Language Agent for Autonomous Driving [31.359413767191608]
本稿では,人間のような知性を自律運転システムに統合するためのパラダイムシフトを提案する。
当社のアプローチはAgent-Driverと呼ばれ,汎用ツールライブラリを導入して,従来の自律走行パイプラインを変革する。
LLM(Large Language Models)によって駆動されるエージェントドライブには直感的な常識と堅牢な推論能力が備わっています。
論文 参考訳(メタデータ) (2023-11-17T18:59:56Z) - Emergence of Maps in the Memories of Blind Navigation Agents [68.41901534985575]
動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
論文 参考訳(メタデータ) (2023-01-30T20:09:39Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Improving Target-driven Visual Navigation with Attention on 3D Spatial
Relationships [52.72020203771489]
3次元屋内シーンにおける深部強化学習(DRL)を用いた目標駆動型視覚ナビゲーションについて検討した。
提案手法は視覚特徴と3次元空間表現を組み合わせてナビゲーションポリシーを学習する。
AI2-THORで実施した我々の実験は、SRとSPLの指標において、モデルがベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T08:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。