論文の概要: Supervised Fine-tuning Evaluation for Long-term Visual Place Recognition
- arxiv url: http://arxiv.org/abs/2211.07696v1
- Date: Mon, 14 Nov 2022 19:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:43:18.994384
- Title: Supervised Fine-tuning Evaluation for Long-term Visual Place Recognition
- Title(参考訳): 長期視覚位置認識のための教師付き微調整評価
- Authors: Farid Alijani and Esa Rahtu
- Abstract要約: 本稿では、2つの最先端のプーリング層を持つディープ畳み込みニューラルネットワークの有用性について包括的に研究する。
アーキテクチャのパラメータを学習するために、ディープラーニングのグローバル機能と3つの異なる損失関数、例えば、三重項、コントラスト、ArcFaceを比較します。
本研究は,ArcFace損失の微調整アーキテクチャが,屋外で約14%,屋内で約12%,エンド・ツー・エンドで約2つの損失を上回っていることを示す。
- 参考スコア(独自算出の注目度): 14.632777952261716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a comprehensive study on the utility of deep
convolutional neural networks with two state-of-the-art pooling layers which
are placed after convolutional layers and fine-tuned in an end-to-end manner
for visual place recognition task in challenging conditions, including seasonal
and illumination variations. We compared extensively the performance of deep
learned global features with three different loss functions, e.g. triplet,
contrastive and ArcFace, for learning the parameters of the architectures in
terms of fraction of the correct matches during deployment. To verify
effectiveness of our results, we utilized two real world datasets in place
recognition, both indoor and outdoor. Our investigation demonstrates that fine
tuning architectures with ArcFace loss in an end-to-end manner outperforms
other two losses by approximately 1~4% in outdoor and 1~2% in indoor datasets,
given certain thresholds, for the visual place recognition tasks.
- Abstract(参考訳): 本稿では,畳み込み層の後に配置され,季節や照明のバリエーションを含む困難な状況下での視覚位置認識タスクのエンドツーエンドで微調整された2つの最先端プール層を有する深層畳み込みニューラルネットワークの有用性に関する包括的研究を行う。
アーキテクチャのパラメータを、デプロイメント中の正しいマッチのごく一部で学習するために、三重項、コントラスト、ArcFaceという3つの異なる損失関数を持つディープラーニンググローバル機能のパフォーマンスを広範囲に比較した。
この結果の有効性を検証するために,屋内と屋外の2つの実世界データセットを用いた。
本研究は,視覚的位置認識タスクにおいて,ArcFace損失を伴う微調整アーキテクチャは,屋外では1~4%,屋内では1~2%の精度で,他の2つの損失よりも優れていたことを示す。
関連論文リスト
- RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments [35.663671249819124]
本稿では,視点変化と知覚的エイリアスを同時に扱う新しい研究を提案する。
本稿では,VPRとSLAMの統合により,VPRの性能向上,特徴対応,グラフサブモジュールのポーズが著しく促進されることを示す。
知覚的エイリアス化や180度回転する極端な視点変化に拘わらず,最先端のパフォーマンスを実現するローカライズシステムについて初めて紹介する。
論文 参考訳(メタデータ) (2020-10-03T20:18:55Z) - On estimating gaze by self-attention augmented convolutions [6.015556590955813]
本稿では,学習した特徴の質を向上させるために,自己注意型拡張畳み込みに基づく新しいネットワークアーキテクチャを提案する。
私たちは、Attention-augmented ResNet(ARes-14)を2つの畳み込みバックボーンとして探求するフレームワークをARes-gazeと呼びました。
その結果,MPIIFaceGazeデータセットの最先端手法と比較して平均角誤差が2.38%減少し,EyeDiapデータセットの2位となった。
論文 参考訳(メタデータ) (2020-08-25T14:29:05Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Improving Monocular Depth Estimation by Leveraging Structural Awareness
and Complementary Datasets [21.703238902823937]
視覚特徴の空間的関係を利用するために,空間的注意ブロックを有する構造認識ニューラルネットワークを提案する。
第2に,一様点対に対する大域的局所的相対損失を導入し,予測における空間的制約を増大させる。
第3に、先行手法の障害事例の分析に基づいて、挑戦シーンの新たなHard Case (HC) Depthデータセットを収集します。
論文 参考訳(メタデータ) (2020-07-22T08:21:02Z) - Learning Robust Feature Representations for Scene Text Detection [0.0]
本稿では、条件付きログを最大化するために、損失から導かれるネットワークアーキテクチャを提案する。
潜伏変数の層を複数の層に拡張することで、ネットワークは大規模に堅牢な機能を学ぶことができる。
実験では,提案アルゴリズムはリコール法と精度の両面で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-05-26T01:06:47Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。