論文の概要: Where is your place, Visual Place Recognition?
- arxiv url: http://arxiv.org/abs/2103.06443v1
- Date: Thu, 11 Mar 2021 04:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:59:03.876806
- Title: Where is your place, Visual Place Recognition?
- Title(参考訳): あなたの場所、視覚場所認識はどこですか?
- Authors: Sourav Garg, Tobias Fischer and Michael Milford
- Abstract要約: 視覚位置認識(vpr)は、外観や視点が大きく変化したにもかかわらず、同じ場所を認識できることが特徴である。
VPRはSpatial Artificial Intelligenceの重要なコンポーネントであり、ロボットプラットフォームとインテリジェントな拡張プラットフォームが物理的な世界を理解し理解できるようにする。
我々は,ドライバの配置表現や位置マッチング選択など,vpr領域におけるキーワークを特徴付け,調査する。
- 参考スコア(独自算出の注目度): 30.684385835751534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Place Recognition (VPR) is often characterized as being able to
recognize the same place despite significant changes in appearance and
viewpoint. VPR is a key component of Spatial Artificial Intelligence, enabling
robotic platforms and intelligent augmentation platforms such as augmented
reality devices to perceive and understand the physical world. In this paper,
we observe that there are three "drivers" that impose requirements on spatially
intelligent agents and thus VPR systems: 1) the particular agent including its
sensors and computational resources, 2) the operating environment of this
agent, and 3) the specific task that the artificial agent carries out. In this
paper, we characterize and survey key works in the VPR area considering those
drivers, including their place representation and place matching choices. We
also provide a new definition of VPR based on the visual overlap -- akin to
spatial view cells in the brain -- that enables us to find similarities and
differences to other research areas in the robotics and computer vision fields.
We identify numerous open challenges and suggest areas that require more
in-depth attention in future works.
- Abstract(参考訳): 視覚位置認識(vpr)は、外観や視点が大きく変化したにもかかわらず、同じ場所を認識できることが特徴である。
VPRは、Spatial Artificial Intelligenceの重要なコンポーネントであり、ロボットプラットフォームと拡張現実デバイスのようなインテリジェントな拡張プラットフォームによって、物理的な世界を理解し理解することができる。
本稿では,空間知的エージェントに要求を課すドライバが3つあり,従ってVPRシステムが存在することを観察する。1)センサや計算資源を含む特定のエージェント,2)このエージェントの動作環境,3)人工エージェントが実行する特定のタスク。
本稿では,VPR領域における位置表現やマッチング選択など,それらのドライバを考慮した主要作品を特徴づけ,調査する。
また、視覚的オーバーラップ(脳の空間ビュー細胞に似た)に基づく新しいVPRの定義も提供し、ロボット工学やコンピュータビジョンの分野における他の研究領域と類似点や相違点を見つけることができます。
我々は、多くのオープンな課題を特定し、将来の作業でより深い注意を必要とする領域を提案する。
関連論文リスト
- Exploring Emerging Trends and Research Opportunities in Visual Place Recognition [28.76562316749074]
視覚に基づく認識は、コンピュータビジョンとロボティクスのコミュニティにおける長年の課題である。
ほとんどのローカライズ実装では、視覚的位置認識が不可欠である。
研究者は最近、視覚言語モデルに注意を向けている。
論文 参考訳(メタデータ) (2024-11-18T11:36:17Z) - Aligning Cyber Space with Physical World: A Comprehensive Survey on Embodied AI [129.08019405056262]
人工知能(Embodied AI)は、人工知能(AGI)の実現に不可欠である
MLMとWMは、その顕著な知覚、相互作用、推論能力のために、大きな注目を集めている。
本調査では,Embodied AIの最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-07-09T14:14:47Z) - Object recognition in primates: What can early visual areas contribute? [0.0]
本研究では,初期視覚処理領域で搬送される信号が周囲の物体認識にどのように利用されるかを検討した。
V1の単純なセルや複雑なセルのモデルは、非常に信頼できる情報を提供することができ、現実的なシナリオでは80%以上の性能が向上する。
我々は,物体認識を並列プロセスと見なすべきであり,低精度かつ高速なモジュールと並列に動作し,視野をまたいで動作可能であることを提案する。
論文 参考訳(メタデータ) (2024-07-05T18:57:09Z) - SpatialRGPT: Grounded Spatial Reasoning in Vision Language Models [68.13636352687257]
VLMの空間知覚と推論能力を高めるために空間領域GPT(SpatialRGPT)を導入する。
推測中、ユーザが指定した領域の提案が提供されると、SpatialRGPTは相対的な方向と距離を正確に知覚できる。
本研究では,空間的推論タスクにおける局所的プロンプトと非局所的プロンプトの双方において,空間的RGPTにより性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2024-06-03T17:59:06Z) - Recent Advances of Local Mechanisms in Computer Vision: A Survey and
Outlook of Recent Work [48.69845068325126]
ローカルメカニズムはコンピュータビジョンの開発を促進するように設計されている。
識別的局所表現を学習するために対象部品に焦点を合わせるだけでなく、効率を向上させるために選択的に情報を処理することができる。
本稿では,様々なコンピュータビジョンタスクやアプローチの局所的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2023-06-02T22:05:52Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - A Benchmark Comparison of Visual Place Recognition Techniques for
Resource-Constrained Embedded Platforms [17.48671856442762]
本稿では,パブリックデータセット上での多数の最先端VPR技術について,ハードウェアに焦点を絞ったベンチマーク評価を行う。
我々は、ODroid、UP、Raspberry Pi 3などの一般的なシングルボードコンピュータに加えて、参照用のコモディティデスクトップとラップトップも検討している。
VPR技術のパフォーマンス精度は、プロセッサアーキテクチャでどのように変化しますか?
この研究の広範な分析と成果は、VPRコミュニティのベンチマークとして機能するだけでなく、VPRアプリケーションの現実的な採用に有用な洞察を提供する。
論文 参考訳(メタデータ) (2021-09-22T19:45:57Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - Spatially Aware Multimodal Transformers for TextVQA [61.01618988620582]
我々はTextVQAタスク、すなわち画像中のテキストを推論して質問に答えるタスクについて研究する。
既存のアプローチは空間関係の使用に限られている。
空間認識型自己注意層を提案する。
論文 参考訳(メタデータ) (2020-07-23T17:20:55Z) - VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework
with Quantifiable Viewpoint and Appearance Change [25.853640977526705]
VPRの研究は、カメラハードウェアの改善とディープラーニングベースの技術の可能性により、過去10年間で急速に成長してきた。
この成長は、特に性能評価に関する分野における断片化と標準化の欠如につながった。
本稿では,VPR技術の性能評価を行うオープンソースフレームワーク「VPR-Bench」を通じて,これらのギャップに対処する。
論文 参考訳(メタデータ) (2020-05-17T00:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。