論文の概要: Where is your place, Visual Place Recognition?
- arxiv url: http://arxiv.org/abs/2103.06443v1
- Date: Thu, 11 Mar 2021 04:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:59:03.876806
- Title: Where is your place, Visual Place Recognition?
- Title(参考訳): あなたの場所、視覚場所認識はどこですか?
- Authors: Sourav Garg, Tobias Fischer and Michael Milford
- Abstract要約: 視覚位置認識(vpr)は、外観や視点が大きく変化したにもかかわらず、同じ場所を認識できることが特徴である。
VPRはSpatial Artificial Intelligenceの重要なコンポーネントであり、ロボットプラットフォームとインテリジェントな拡張プラットフォームが物理的な世界を理解し理解できるようにする。
我々は,ドライバの配置表現や位置マッチング選択など,vpr領域におけるキーワークを特徴付け,調査する。
- 参考スコア(独自算出の注目度): 30.684385835751534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Place Recognition (VPR) is often characterized as being able to
recognize the same place despite significant changes in appearance and
viewpoint. VPR is a key component of Spatial Artificial Intelligence, enabling
robotic platforms and intelligent augmentation platforms such as augmented
reality devices to perceive and understand the physical world. In this paper,
we observe that there are three "drivers" that impose requirements on spatially
intelligent agents and thus VPR systems: 1) the particular agent including its
sensors and computational resources, 2) the operating environment of this
agent, and 3) the specific task that the artificial agent carries out. In this
paper, we characterize and survey key works in the VPR area considering those
drivers, including their place representation and place matching choices. We
also provide a new definition of VPR based on the visual overlap -- akin to
spatial view cells in the brain -- that enables us to find similarities and
differences to other research areas in the robotics and computer vision fields.
We identify numerous open challenges and suggest areas that require more
in-depth attention in future works.
- Abstract(参考訳): 視覚位置認識(vpr)は、外観や視点が大きく変化したにもかかわらず、同じ場所を認識できることが特徴である。
VPRは、Spatial Artificial Intelligenceの重要なコンポーネントであり、ロボットプラットフォームと拡張現実デバイスのようなインテリジェントな拡張プラットフォームによって、物理的な世界を理解し理解することができる。
本稿では,空間知的エージェントに要求を課すドライバが3つあり,従ってVPRシステムが存在することを観察する。1)センサや計算資源を含む特定のエージェント,2)このエージェントの動作環境,3)人工エージェントが実行する特定のタスク。
本稿では,VPR領域における位置表現やマッチング選択など,それらのドライバを考慮した主要作品を特徴づけ,調査する。
また、視覚的オーバーラップ(脳の空間ビュー細胞に似た)に基づく新しいVPRの定義も提供し、ロボット工学やコンピュータビジョンの分野における他の研究領域と類似点や相違点を見つけることができます。
我々は、多くのオープンな課題を特定し、将来の作業でより深い注意を必要とする領域を提案する。
関連論文リスト
- Recent Advances of Local Mechanisms in Computer Vision: A Survey and
Outlook of Recent Work [48.69845068325126]
ローカルメカニズムはコンピュータビジョンの開発を促進するように設計されている。
識別的局所表現を学習するために対象部品に焦点を合わせるだけでなく、効率を向上させるために選択的に情報を処理することができる。
本稿では,様々なコンピュータビジョンタスクやアプローチの局所的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2023-06-02T22:05:52Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - From SLAM to Situational Awareness: Challenges and Survey [0.0]
複雑なミッションを効率的に安全に遂行する移動ロボットの能力は、環境に関する知識によって制限される。
高度な推論、意思決定、実行スキルにより、知的エージェントは未知の環境で自律的に行動することができる。
本稿では,現状のロボット工学アルゴリズムを網羅し,状況認識の諸側面について考察する。
論文 参考訳(メタデータ) (2021-10-01T09:00:34Z) - A Benchmark Comparison of Visual Place Recognition Techniques for
Resource-Constrained Embedded Platforms [17.48671856442762]
本稿では,パブリックデータセット上での多数の最先端VPR技術について,ハードウェアに焦点を絞ったベンチマーク評価を行う。
我々は、ODroid、UP、Raspberry Pi 3などの一般的なシングルボードコンピュータに加えて、参照用のコモディティデスクトップとラップトップも検討している。
VPR技術のパフォーマンス精度は、プロセッサアーキテクチャでどのように変化しますか?
この研究の広範な分析と成果は、VPRコミュニティのベンチマークとして機能するだけでなく、VPRアプリケーションの現実的な採用に有用な洞察を提供する。
論文 参考訳(メタデータ) (2021-09-22T19:45:57Z) - Visual Probing and Correction of Object Recognition Models with
Interactive user feedback [2.8101673772585736]
本稿では,オブジェクト認識モデルの不確かさを可視化し,ユーザフィードバックによる修正プロセスを提案する。
VAST 2020 Mini-Challenge 2が提供するデータに対するアプローチを実証します。
論文 参考訳(メタデータ) (2020-12-29T00:36:12Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - Spatially Aware Multimodal Transformers for TextVQA [61.01618988620582]
我々はTextVQAタスク、すなわち画像中のテキストを推論して質問に答えるタスクについて研究する。
既存のアプローチは空間関係の使用に限られている。
空間認識型自己注意層を提案する。
論文 参考訳(メタデータ) (2020-07-23T17:20:55Z) - VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework
with Quantifiable Viewpoint and Appearance Change [25.853640977526705]
VPRの研究は、カメラハードウェアの改善とディープラーニングベースの技術の可能性により、過去10年間で急速に成長してきた。
この成長は、特に性能評価に関する分野における断片化と標準化の欠如につながった。
本稿では,VPR技術の性能評価を行うオープンソースフレームワーク「VPR-Bench」を通じて,これらのギャップに対処する。
論文 参考訳(メタデータ) (2020-05-17T00:27:53Z) - An Exploration of Embodied Visual Exploration [97.21890864063872]
身体的コンピュータビジョンは、新しい非構造環境におけるロボットに対する知覚を考慮に入れている。
既存の視覚探索アルゴリズムの分類を提示し、それらをベンチマークするための標準フレームワークを作成する。
次に,提案フレームワークを用いた4つの最先端パラダイムの徹底的な実証的研究を行った。
論文 参考訳(メタデータ) (2020-01-07T17:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。