論文の概要: Appearance-Invariant 6-DoF Visual Localization using Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.13191v1
- Date: Thu, 24 Dec 2020 10:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:14:49.047659
- Title: Appearance-Invariant 6-DoF Visual Localization using Generative
Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いた外観不変6-DoF視覚像定位
- Authors: Yimin Lin, Jianfeng Huang, Shiguo Lian
- Abstract要約: 異なる照明, 天気, 季節などの外部環境が変化した場合に, 新たな視覚定位ネットワークを提案する。
視覚的ローカライゼーションネットワークは、特徴抽出ネットワークとポーズ回帰ネットワークとから構成される。
その結果,本手法は様々な環境変化のシナリオにおいて,最先端の手法を上回っていることが示された。
- 参考スコア(独自算出の注目度): 7.04719493717788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel visual localization network when outside environment has
changed such as different illumination, weather and season. The visual
localization network is composed of a feature extraction network and pose
regression network. The feature extraction network is made up of an encoder
network based on the Generative Adversarial Network CycleGAN, which can capture
intrinsic appearance-invariant feature maps from unpaired samples of different
weathers and seasons. With such an invariant feature, we use a 6-DoF pose
regression network to tackle long-term visual localization in the presence of
outdoor illumination, weather and season changes. A variety of challenging
datasets for place recognition and localization are used to prove our visual
localization network, and the results show that our method outperforms
state-of-the-art methods in the scenarios with various environment changes.
- Abstract(参考訳): 異なる照明, 天気, 季節などの外部環境が変化した場合に, 新たな視覚定位ネットワークを提案する。
視覚的ローカライゼーションネットワークは、特徴抽出ネットワークとポーズ回帰ネットワークとから構成される。
特徴抽出ネットワークは、生成的な逆ネットワークであるcycleganに基づくエンコーダネットワークで構成されており、異なる天候や季節の非ペアサンプルから固有の外観不変特徴マップをキャプチャすることができる。
このような不変な特徴により,6自由度姿勢回帰ネットワークを用いて,屋外照明,天候,季節変化の存在下での長期視覚定位に取り組む。
位置認識とローカライゼーションのための様々な挑戦的データセットを用いて視覚的ローカライゼーションネットワークを証明し、その結果、様々な環境変化のあるシナリオにおいて、我々の手法が最先端の手法より優れていることを示す。
関連論文リスト
- Long-Term Invariant Local Features via Implicit Cross-Domain
Correspondences [79.21515035128832]
我々は、様々なドメイン変更の下で、現在の最先端特徴抽出ネットワークの性能を徹底的に分析する。
我々は、新しいデータ中心方式、Implicit Cross-Domain Correspondences (iCDC)を提案する。
iCDCは複数のニューラル・ラジアンス・フィールドで同じ環境を表し、それぞれが個々の視覚領域の下にシーンを適合させる。
論文 参考訳(メタデータ) (2023-11-06T18:53:01Z) - Self-Supervised Feature Learning for Long-Term Metric Visual
Localization [16.987148593917905]
本稿では,メトリクスの視覚的ローカライゼーションのための新しい自己教師型特徴学習フレームワークを提案する。
提案手法は, 画像照合アルゴリズムを用いて, 基底構造ラベルを使わずに画像対応を生成する。
次に、画像ペアをサンプリングして、深層ニューラルネットワークをトレーニングし、関連する記述子とスコアのスパースな特徴を学習する。
論文 参考訳(メタデータ) (2022-11-30T21:15:05Z) - Real-time Local Feature with Global Visual Information Enhancement [6.640269424085467]
現在のディープラーニングベースのローカル特徴アルゴリズムは、常に限定的な受容場を持つ畳み込みニューラルネットワーク(CNN)アーキテクチャを利用する。
提案手法では,軽量ネットワークにおいて,グローバルな視覚的手がかりを融合するグローバル拡張モジュールを提案する。
公開ベンチマークの実験では、この提案が視覚的干渉に対してかなりの堅牢性を達成し、同時にリアルタイムに実行できることが示されている。
論文 参考訳(メタデータ) (2022-11-20T13:44:20Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Multiple-environment Self-adaptive Network for Aerial-view
Geo-localization [85.52750931345287]
航空ビューのジオローカライゼーションは、ドローンビュー画像とジオタグの衛星ビュー画像とをマッチングすることにより、未知の位置を決定する傾向がある。
本研究では,環境変化に伴う領域シフトを調整するために,マルチ環境自己適応ネットワーク(MuSe-Net)を提案する。
特に、MuSe-Netは、1つの多重環境スタイル抽出ネットワークと1つの自己適応的特徴抽出ネットワークを含む2分岐ニューラルネットワークを使用している。
論文 参考訳(メタデータ) (2022-04-18T16:04:29Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Sill-Net: Feature Augmentation with Separated Illumination
Representation [35.25230715669166]
分離イルミネーションネットワーク(Sill-Net)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
Sill-Netは、画像から照明機能を分離することを学び、トレーニング中に、これらの照明機能を特徴空間で分離したトレーニングサンプルを拡張する。
実験により,本手法はいくつかのオブジェクト分類ベンチマークにおいて,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-02-06T09:00:10Z) - Domain Adaptation of Learned Features for Visual Localization [60.6817896667435]
日時,天気,季節などの変化条件下での視覚的局所化の問題に対処する。
近年の深層ニューラルネットワークに基づく学習された局所的特徴は、古典的な手作りの局所的特徴よりも優れた性能を示している。
ドメインギャップを減らすために、いくつかの例しか必要としない、斬新で実践的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:17:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。