論文の概要: Emergence of Maps in the Memories of Blind Navigation Agents
- arxiv url: http://arxiv.org/abs/2301.13261v1
- Date: Mon, 30 Jan 2023 20:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:46:56.840119
- Title: Emergence of Maps in the Memories of Blind Navigation Agents
- Title(参考訳): ブラインドナビゲーションエージェントの記憶における地図の出現
- Authors: Erik Wijmans, Manolis Savva, Irfan Essa, Stefan Lee, Ari S. Morcos,
Dhruv Batra
- Abstract要約: 動物ナビゲーション研究は、生物が環境の空間的表現(地図)を構築、維持する、という仮説を定めている。
私たちはマシン、具体的には人工知能(AI)ナビゲーションエージェントが、暗黙の(あるいは「メンタル」な)マップを構築しているかどうか尋ねる。
動物ナビゲーションとは異なり、エージェントの知覚システムを司法的に設計し、学習パラダイムを制御して代替ナビゲーション機構を無効化することができる。
- 参考スコア(独自算出の注目度): 68.41901534985575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animal navigation research posits that organisms build and maintain internal
spatial representations, or maps, of their environment. We ask if machines --
specifically, artificial intelligence (AI) navigation agents -- also build
implicit (or 'mental') maps. A positive answer to this question would (a)
explain the surprising phenomenon in recent literature of ostensibly map-free
neural-networks achieving strong performance, and (b) strengthen the evidence
of mapping as a fundamental mechanism for navigation by intelligent embodied
agents, whether they be biological or artificial. Unlike animal navigation, we
can judiciously design the agent's perceptual system and control the learning
paradigm to nullify alternative navigation mechanisms. Specifically, we train
'blind' agents -- with sensing limited to only egomotion and no other sensing
of any kind -- to perform PointGoal navigation ('go to $\Delta$ x, $\Delta$ y')
via reinforcement learning. Our agents are composed of navigation-agnostic
components (fully-connected and recurrent neural networks), and our
experimental setup provides no inductive bias towards mapping. Despite these
harsh conditions, we find that blind agents are (1) surprisingly effective
navigators in new environments (~95% success); (2) they utilize memory over
long horizons (remembering ~1,000 steps of past experience in an episode); (3)
this memory enables them to exhibit intelligent behavior (following walls,
detecting collisions, taking shortcuts); (4) there is emergence of maps and
collision detection neurons in the representations of the environment built by
a blind agent as it navigates; and (5) the emergent maps are selective and task
dependent (e.g. the agent 'forgets' exploratory detours). Overall, this paper
presents no new techniques for the AI audience, but a surprising finding, an
insight, and an explanation.
- Abstract(参考訳): 動物航法研究は、生物が環境の空間的表現(地図)を構築、維持するものである。
私たちはマシン(特に人工知能(AI)ナビゲーションエージェント)が暗黙の(あるいは「メンタル」な)マップを構築するかどうか尋ねる。
この質問に対するポジティブな答えは
(a)目立たないマップフリーニューラルネットワークの最近の文献における驚くべき現象の説明、及び
b) 生物か人工かにかかわらず、インテリジェントなエンボディエージェントによるナビゲーションの基本的なメカニズムとしてのマッピングの証拠を強化すること。
動物ナビゲーションとは異なり、エージェントの知覚システムの設計と学習パラダイムの制御によって、代替のナビゲーションメカニズムを無効化することができる。
具体的には、強化学習を通じてPointGoalナビゲーション('go to $\Delta$ x, $\Delta$ y')を実行するために、エゴモーションのみに制限のある"盲検エージェントを訓練します。
我々のエージェントはナビゲーションに依存しないコンポーネント(完全接続および繰り返しニューラルネットワーク)で構成されており、我々の実験装置はマッピングに対する誘導バイアスを与えない。
Despite these harsh conditions, we find that blind agents are (1) surprisingly effective navigators in new environments (~95% success); (2) they utilize memory over long horizons (remembering ~1,000 steps of past experience in an episode); (3) this memory enables them to exhibit intelligent behavior (following walls, detecting collisions, taking shortcuts); (4) there is emergence of maps and collision detection neurons in the representations of the environment built by a blind agent as it navigates; and (5) the emergent maps are selective and task dependent (e.g. the agent 'forgets' exploratory detours).
全体として、この論文はAIのオーディエンスに新しいテクニックを提供するのではなく、驚くべき発見、洞察、説明を提供する。
関連論文リスト
- Visuospatial navigation without distance, prediction, or maps [1.3812010983144802]
従来の視覚ナビゲーションタスクにおいて,最小限のフィードフォワードフレームワークの有効性を示す。
視覚的距離は目標への直接的軌跡を可能にするが、2つの異なるアルゴリズムは視覚的角度だけで頑健にナビゲートするように開発されている。
それぞれに独特の文脈的トレードオフが与えられ、げっ歯類、昆虫、魚、精子で観察される運動行動と一致している。
論文 参考訳(メタデータ) (2024-07-18T14:07:44Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Investigating Navigation Strategies in the Morris Water Maze through
Deep Reinforcement Learning [4.408196554639971]
本研究では,モリス水迷路を2次元で模擬し,深層強化学習エージェントの訓練を行う。
我々は、ナビゲーション戦略の自動分類を行い、人工エージェントが使用する戦略の分布を分析し、実験データと比較し、人間やげっ歯類と同様の学習力学を示す。
論文 参考訳(メタデータ) (2023-06-01T18:16:16Z) - What do navigation agents learn about their environment? [39.74076893981299]
本稿では、ポイントゴールナビゲーションエージェントとオブジェクトゴールナビゲーションエージェントのための、エンボディード・アグエント(iSEE)の解釈可能性システムについて紹介する。
これらのエージェントが生成する動的表現をiSEEを用いて探索し,エージェントや環境に関する情報を提示する。
論文 参考訳(メタデータ) (2022-06-17T01:33:43Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Diagnosing Vision-and-Language Navigation: What Really Matters [61.72935815656582]
視覚言語ナビゲーション(VLN)は、エージェントが自然言語の指示に従って視覚環境をナビゲートするマルチモーダルタスクである。
近年の研究では、室内および屋外のVLNタスクのパフォーマンス改善が鈍化している。
本研究では,ナビゲーション中のエージェントの焦点を明らかにするための一連の診断実験を行う。
論文 参考訳(メタデータ) (2021-03-30T17:59:07Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。