論文の概要: Good Deep Features to Track: Self-Supervised Feature Extraction and Tracking in Visual Odometry
- arxiv url: http://arxiv.org/abs/2509.08333v1
- Date: Wed, 10 Sep 2025 07:15:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.334694
- Title: Good Deep Features to Track: Self-Supervised Feature Extraction and Tracking in Visual Odometry
- Title(参考訳): 追跡すべき優れた特徴:ビジュアルオドメトリーにおける自己監督的特徴抽出と追跡
- Authors: Sai Puneeth Reddy Gottam, Haoming Zhang, Eivydas Keras,
- Abstract要約: ビジュアルベースのローカライゼーションは大きな進歩を遂げているが、そのパフォーマンスは大規模、屋外、長期設定でしばしば低下する。
これらの課題は、正確な動き推定に欠かせない特徴抽出と追跡を分解する。
タスク固有のフィードバックで自己教師付き学習を通じて、深い特徴抽出と追跡を強化することで、この問題に対処する。
- 参考スコア(独自算出の注目度): 2.989263790174061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual-based localization has made significant progress, yet its performance often drops in large-scale, outdoor, and long-term settings due to factors like lighting changes, dynamic scenes, and low-texture areas. These challenges degrade feature extraction and tracking, which are critical for accurate motion estimation. While learning-based methods such as SuperPoint and SuperGlue show improved feature coverage and robustness, they still face generalization issues with out-of-distribution data. We address this by enhancing deep feature extraction and tracking through self-supervised learning with task specific feedback. Our method promotes stable and informative features, improving generalization and reliability in challenging environments.
- Abstract(参考訳): 視覚ベースのローカライゼーションは大きな進歩を遂げているが、照明の変化、ダイナミックなシーン、低テクスチャ領域などの要因により、大規模な、屋外、長期的な設定ではしばしば性能が低下する。
これらの課題は、正確な動き推定に欠かせない特徴抽出と追跡を分解する。
SuperPointやSuperGlueのような学習ベースの手法では、機能カバレッジとロバスト性が向上する一方で、アウト・オブ・ディストリビューションデータによる一般化の問題に直面している。
タスク固有のフィードバックで自己教師付き学習を通じて、深い特徴抽出と追跡を強化することで、この問題に対処する。
提案手法は, 安定かつ情報的特徴を育成し, 課題のある環境における一般化と信頼性を向上させる。
関連論文リスト
- Landmark Guided Visual Feature Extractor for Visual Speech Recognition with Limited Resource [24.004478804309763]
視覚音声認識は、無声音声における音声内容を特定する技術である。
深層学習法は雷などの視覚障害の影響を受けやすい。
本稿ではランドマーク付き視覚特徴抽出器を提案する。
論文 参考訳(メタデータ) (2025-08-10T08:26:55Z) - Stochastic Encodings for Active Feature Acquisition [100.47043816019888]
Active Feature Acquisitionは、インスタンスワイドでシーケンシャルな意思決定問題である。
目的は、テストインスタンスごとに独立して、現在の観測に基づいて計測する機能を動的に選択することである。
一般的なアプローチは強化学習(Reinforcement Learning)であり、トレーニングの困難を経験する。
我々は、教師付きで訓練された潜在変数モデルを導入し、潜在空間における観測不能な実現の可能性の多くにまたがる特徴を推論することで獲得する。
論文 参考訳(メタデータ) (2025-08-03T23:48:46Z) - Exploring Temporally-Aware Features for Point Tracking [58.63091479730935]
Chronoは、時間的認識を組み込んだポイントトラッキング用に特別に設計された機能バックボーンである。
Chronoは、TAP-Vid-DAVISとTAP-Vid-Kineticsデータセットの洗練されたフリー設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T15:39:40Z) - ProTracker: Probabilistic Integration for Robust and Accurate Point Tracking [41.889032460337226]
ProTrackerは、ビデオ内の任意の点を正確かつ堅牢に追跡する新しいフレームワークである。
この設計は、グローバルな意味情報と時間的に認識される低レベル特徴を効果的に組み合わせている。
実験により、ProTrackerは最適化ベースのアプローチで最先端のパフォーマンスを得ることができた。
論文 参考訳(メタデータ) (2025-01-06T18:55:52Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - RPT++: Customized Feature Representation for Siamese Visual Tracking [16.305972000224358]
視覚的トラッキングの性能向上は,有意な領域から抽出された特徴が,より認識可能な視覚的パターンを提供するため,限られていると我々は主張する。
タスク固有の視覚パターンを捉えるために,極性プーリングと極性プーリングという2つの特徴抽出器を提案する。
本稿では,タスク固有の特徴表現の有効性を,最近の進行トラッカーRTPに組み込むことで示す。
論文 参考訳(メタデータ) (2021-10-23T10:58:57Z) - From Handcrafted to Deep Features for Pedestrian Detection: A Survey [148.35460817092908]
歩行者検出はコンピュータビジョンにおいて重要であるが難しい問題である。
過去10年間で、手作りの機能と深い機能によって、大幅な改善が見られた。
単スペクトル歩行者検出に加えて,多スペクトル歩行者検出も検討した。
論文 参考訳(メタデータ) (2020-10-01T14:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。