論文の概要: RaP-Net: A Region-wise and Point-wise Weighting Network to Extract
Robust Features for Indoor Localization
- arxiv url: http://arxiv.org/abs/2012.00234v2
- Date: Sun, 14 Mar 2021 14:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:36:50.517760
- Title: RaP-Net: A Region-wise and Point-wise Weighting Network to Extract
Robust Features for Indoor Localization
- Title(参考訳): RaP-Net: 屋内ローカライゼーションのためのロバスト特徴抽出のための領域的および点的重み付けネットワーク
- Authors: Dongjiang Li, Jinyu Miao, Xuesong Shi, Yuxin Tian, Qiwei Long, Tianyu
Cai, Ping Guo, Hongfei Yu, Wei Yang, Haosong Yue, Qi Wei, Fei Qiao
- Abstract要約: 本稿では,地域的不可変性と点的信頼性を同時に予測する新しいネットワークであるRaP-Netを提案する。
また、提案するネットワークをトレーニングするために、OpenLORIS-Locationという新しいデータセットも導入する。
実験結果から,OpenLORIS-Locationデータセットを用いてトレーニングしたRaP-Netは,特徴マッチングタスクにおいて優れた性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 6.91612509631121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature extraction plays an important role in visual localization. Unreliable
features on dynamic objects or repetitive regions will disturb robust feature
matching and thus, challenge indoor localization greatly. To conquer such an
issue, we propose a novel network, RaP-Net, to simultaneously predict
region-wise invariability and point-wise reliability, and then extract features
by considering both of them. We also introduce a new dataset, named
OpenLORIS-Location, to train proposed network. The dataset contains 1553 indoor
images from 93 indoor locations. Various appearance changes between images of
the same location are included and they can help to learn the invariability in
typical indoor scenes. Experimental results show that the proposed RaP-Net
trained with the OpenLORIS-Location dataset achieves an excellent performance
in the feature matching task and significantly outperforms state-of-the-arts
feature algorithms in indoor localization. The RaP-Net code and dataset are
available at https://github.com/ivipsourcecode/RaP-Net.
- Abstract(参考訳): 特徴抽出は視覚局所化において重要な役割を果たす。
動的オブジェクトや反復領域の信頼性の低い機能は、ロバストな特徴マッチングを邪魔し、屋内でのローカライゼーションに大きく挑戦する。
このような問題を克服するために,地域的不可変性と点的信頼性を同時に予測する新しいネットワークであるRaP-Netを提案し,その両方を考慮して特徴を抽出する。
また、提案するネットワークをトレーニングするために、OpenLORIS-Locationという新しいデータセットも導入する。
データセットには93箇所の屋内画像1553点が含まれている。
同じ場所の画像間の様々な外観変化が含まれており、典型的な屋内シーンにおける不変性を学ぶのに役立ちます。
実験の結果,openloris-locationデータセットでトレーニングしたrap-netは,特徴マッチングタスクにおいて優れた性能を達成でき,室内ローカライズにおける最先端の特徴アルゴリズムを著しく上回っている。
RaP-Netのコードとデータセットはhttps://github.com/ivipsourcecode/RaP-Netで公開されている。
関連論文リスト
- IndoorGNN: A Graph Neural Network based approach for Indoor Localization
using WiFi RSSI [3.495640663645263]
我々は,グラフニューラルネットワーク(GNN)に基づくアルゴリズムを用いて,特定の位置を特定の領域に分類する手法「屋内GNN」を開発した。
この分類を行うMLアルゴリズムのほとんどは、多数のラベル付きデータポイントを必要とする。
実験の結果,IndoorGNNは現状の既存手法やGNNベースの手法と比較して,位置予測精度が向上していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T17:12:51Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Real-time Local Feature with Global Visual Information Enhancement [6.640269424085467]
現在のディープラーニングベースのローカル特徴アルゴリズムは、常に限定的な受容場を持つ畳み込みニューラルネットワーク(CNN)アーキテクチャを利用する。
提案手法では,軽量ネットワークにおいて,グローバルな視覚的手がかりを融合するグローバル拡張モジュールを提案する。
公開ベンチマークの実験では、この提案が視覚的干渉に対してかなりの堅牢性を達成し、同時にリアルタイムに実行できることが示されている。
論文 参考訳(メタデータ) (2022-11-20T13:44:20Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - SpinNet: Learning a General Surface Descriptor for 3D Point Cloud
Registration [57.28608414782315]
ローカルな特徴を抽出するために、SpinNetと呼ばれる新しい、概念的にはシンプルで、ニューラルなアーキテクチャを導入する。
屋内と屋外の両方の実験では、SpinNetが既存の最先端技術より優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T15:00:56Z) - Distinctive 3D local deep descriptors [2.512827436728378]
ポイントクラウドパッチは抽出され、推定されたローカル参照フレームに対して正準化され、PointNetベースのディープニューラルネットワークによって符号化される。
我々は、異なるセンサを用いて再構成された点雲からなる複数のデータセットにおいて、DIPを、別の手作り、ディープディスクリプタと比較し、比較した。
論文 参考訳(メタデータ) (2020-09-01T06:25:06Z) - Zero-Shot Multi-View Indoor Localization via Graph Location Networks [66.05980368549928]
屋内ローカライゼーションは、位置ベースアプリケーションにおける基本的な問題である。
本稿では,インフラストラクチャフリーで多視点画像に基づく屋内ローカライゼーションを実現するために,新しいニューラルネットワークアーキテクチャであるGraph Location Networks(GLN)を提案する。
GLNは、メッセージパッシングネットワークを通じて画像から抽出されたロバストな位置表現に基づいて位置予測を行う。
新たにゼロショット屋内ローカライズ設定を導入し,提案したGLNを専用ゼロショットバージョンに拡張することで,その課題に対処する。
論文 参考訳(メタデータ) (2020-08-06T07:36:55Z) - LRC-Net: Learning Discriminative Features on Point Clouds by Encoding
Local Region Contexts [65.79931333193016]
本稿では,LRC-Net(Local-Region-Context Network)を提案する。
LRC-Netは、局所領域内および周辺領域間の微粒なコンテキストを同時に符号化する。
その結果, LRC-Netは形状分類や形状分割の応用において最先端の手法と競合することがわかった。
論文 参考訳(メタデータ) (2020-03-18T14:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。