論文の概要: TartanVO: A Generalizable Learning-based VO
- arxiv url: http://arxiv.org/abs/2011.00359v1
- Date: Sat, 31 Oct 2020 20:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:48:56.466499
- Title: TartanVO: A Generalizable Learning-based VO
- Title(参考訳): TartanVO: 一般化可能な学習ベースVO
- Authors: Wenshan Wang, Yaoyu Hu, Sebastian Scherer
- Abstract要約: 本稿では,複数のデータセットと実世界のシナリオに一般化した,最初の学習ベースビジュアル・オドメトリー(VO)モデルを提案する。
我々はSLAMデータセットであるTartanAirを活用して、挑戦的な環境で大量の多様な合成データを提供する。
- 参考スコア(独自算出の注目度): 9.12375405509935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first learning-based visual odometry (VO) model, which
generalizes to multiple datasets and real-world scenarios and outperforms
geometry-based methods in challenging scenes. We achieve this by leveraging the
SLAM dataset TartanAir, which provides a large amount of diverse synthetic data
in challenging environments. Furthermore, to make our VO model generalize
across datasets, we propose an up-to-scale loss function and incorporate the
camera intrinsic parameters into the model. Experiments show that a single
model, TartanVO, trained only on synthetic data, without any finetuning, can be
generalized to real-world datasets such as KITTI and EuRoC, demonstrating
significant advantages over the geometry-based methods on challenging
trajectories. Our code is available at https://github.com/castacks/tartanvo.
- Abstract(参考訳): 本稿では,複数のデータセットや実世界のシナリオに一般化し,挑戦シーンにおける幾何学的手法よりも優れる,最初の学習ベースビジュアル・オドメトリー(VO)モデルを提案する。
我々はSLAMデータセットであるTartanAirを活用して、課題のある環境で大量の多様な合成データを提供する。
さらに、VOモデルをデータセット全体にわたって一般化させるため、最大スケールの損失関数を提案し、カメラ固有のパラメータをモデルに組み込む。
実験により、合成データのみに基づいて訓練された単一のモデルであるTartanVOが、KITTIやEuRoCのような現実世界のデータセットに一般化できることが示され、挑戦軌跡の幾何学的手法よりも大きな優位性を示している。
私たちのコードはhttps://github.com/castacks/tartanvo.comで利用可能です。
関連論文リスト
- UdeerLID+: Integrating LiDAR, Image, and Relative Depth with Semi-Supervised [12.440461420762265]
道路分割は自動運転システムにとって重要な課題である。
我々の研究は、LiDARポイントクラウドデータ、ビジュアルイメージ、および相対深度マップを統合する革新的なアプローチを導入している。
主な課題の1つは、大規模で正確にラベル付けされたデータセットの不足である。
論文 参考訳(メタデータ) (2024-09-10T03:57:30Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Generalizable Implicit Neural Representation As a Universal Spatiotemporal Traffic Data Learner [46.866240648471894]
時空間交通データ(STTD)は、マルチスケール交通システムの複雑な動的挙動を測定する。
本稿では,STTDを暗黙的ニューラル表現としてパラメータ化することで,STTD学習問題に対処する新しいパラダイムを提案する。
実世界のシナリオにおける広範な実験を通じて,その有効性を検証し,廊下からネットワークスケールへの応用を示す。
論文 参考訳(メタデータ) (2024-06-13T02:03:22Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - The Devil in the Details: Simple and Effective Optical Flow Synthetic
Data Generation [19.945859289278534]
本稿では,光学フローデータセットの要求特性が比較的単純であり,簡易な合成データ生成法を提案する。
2次元動きに基づくデータセットでは、合成データセットを生成するための最も単純だが重要な要素を体系的に分析する。
論文 参考訳(メタデータ) (2023-08-14T18:01:45Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - Domain Generalization via Ensemble Stacking for Face Presentation Attack
Detection [4.61143637299349]
顔提示攻撃検出(PAD)は、偽造攻撃に対する顔認識システムを保護する上で重要な役割を担っている。
本研究では,合成データ生成と深層アンサンブル学習を組み合わせた包括的ソリューションを提案する。
4つのデータセットに対する実験結果は、3つのベンチマークデータセット上でのHTER(low half total error rate)を示す。
論文 参考訳(メタデータ) (2023-01-05T16:44:36Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - CrossLoc: Scalable Aerial Localization Assisted by Multimodal Synthetic
Data [2.554905387213586]
本稿では,合成データを用いて実世界のカメラポーズを推定する視覚的位置決めシステムを提案する。
データ不足を緩和するために,汎用な合成データ生成ツールTOPO-DataGenを導入する。
また、ポーズ推定のためのクロスモーダル視覚表現学習手法であるCrossLocを導入する。
論文 参考訳(メタデータ) (2021-12-16T18:05:48Z) - Deep transfer learning for improving single-EEG arousal detection [63.52264764099532]
2つのデータセットは、単一のEEGモデルでパフォーマンスが低下する原因となる、まったく同じ設定を含んでいない。
単チャンネル脳波データのためのアーキテクチャを構築するために,ベースラインモデルをトレーニングし,最初の2層を置き換える。
細調整戦略を用いて,本モデルはベースラインモデルと同等の性能を示し,同等の単一チャネルモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-10T16:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。