論文の概要: Online Visual Place Recognition via Saliency Re-identification
- arxiv url: http://arxiv.org/abs/2007.14549v1
- Date: Wed, 29 Jul 2020 01:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:44:44.988715
- Title: Online Visual Place Recognition via Saliency Re-identification
- Title(参考訳): saliency re-identification によるオンライン視覚位置認識
- Authors: Han Wang, Chen Wang and Lihua Xie
- Abstract要約: 既存の手法はしばしば特徴マッチングとして視覚的位置認識を定式化する。
人間は常に聖域やランドマークを記憶することで場所を認識するという事実に触発され、私たちは視覚的場所認識を聖域再識別として定式化する。
一方、周波数領域における正当性検出と再同定の両方を行い、全ての操作を要素的に行うことを提案する。
- 参考スコア(独自算出の注目度): 26.209412893744094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an essential component of visual simultaneous localization and mapping
(SLAM), place recognition is crucial for robot navigation and autonomous
driving. Existing methods often formulate visual place recognition as feature
matching, which is computationally expensive for many robotic applications with
limited computing power, e.g., autonomous driving and cleaning robot. Inspired
by the fact that human beings always recognize a place by remembering salient
regions or landmarks that are more attractive or interesting than others, we
formulate visual place recognition as saliency re-identification. In the
meanwhile, we propose to perform both saliency detection and re-identification
in frequency domain, in which all operations become element-wise. The
experiments show that our proposed method achieves competitive accuracy and
much higher speed than the state-of-the-art feature-based methods. The proposed
method is open-sourced and available at
https://github.com/wh200720041/SRLCD.git.
- Abstract(参考訳): 視覚的同時位置決めとマッピング(SLAM)の重要な構成要素として、位置認識はロボットナビゲーションと自律運転に不可欠である。
既存の手法では、視覚的な位置認識を特徴マッチングとして定式化し、自律運転やクリーニングロボットなど、限られた計算能力を持つ多くのロボットアプリケーションにとって計算コストがかかる。
人間は、他の人よりも魅力的で興味深い、またはランドマークを記憶することで常に場所を認識しているという事実に触発されて、視覚的な場所認識をサラエンシー再同定として定式化する。
一方,全操作が要素単位となる周波数領域において,サリエンシ検出と再同定の両方を行うように提案する。
実験の結果,提案手法は最新の特徴量に基づく手法よりも高い競争精度と高速性を達成できることがわかった。
提案手法はhttps://github.com/wh2007 20041/SRLCD.gitで公開されている。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition [53.359383163184425]
本稿では, 効率的な単一眼球運動認識タスクに適した, マルチモーダル・シナジスティック知識蒸留方式を提案する。
この方法では、軽量で単調な学生スパイクニューラルネットワーク(SNN)が、イベントフレームマルチモーダル教師ネットワークから豊富な知識を抽出することができる。
論文 参考訳(メタデータ) (2024-06-20T07:24:47Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - General Place Recognition Survey: Towards the Real-world Autonomy Age [36.49196034588173]
場所認識コミュニティは、過去20年間に驚くべき進歩を遂げてきた。
複雑な実世界のシナリオにおいて、期待できる位置認識性能を示す手法はほとんどない。
本論文は,場所認識コミュニティと長期ロボット工学の自律性に関心を持つ研究者を対象としたチュートリアルである。
論文 参考訳(メタデータ) (2022-09-09T19:37:05Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - SeekNet: Improved Human Instance Segmentation via Reinforcement Learning
Based Optimized Robot Relocation [17.4240390944016]
アモーダル認識は、隠された物体を検知するシステムの能力である。
視覚認識を具体化してアモーダル認識のための改良された最適化手法であるSeekNetを提案する。
また、混み合った人間との対話が複数ある社会ロボット向けにSeekNetを実装している。
論文 参考訳(メタデータ) (2020-11-17T15:03:30Z) - Cross-Task Transfer for Geotagged Audiovisual Aerial Scene Recognition [61.54648991466747]
映像と音を入力として用いた視覚的空中シーン認識タスクについて検討する。
航空シーン認識のための音声情報を活用する利点を示す。
論文 参考訳(メタデータ) (2020-05-18T04:14:16Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。