論文の概要: Eiffel Tower: A Deep-Sea Underwater Dataset for Long-Term Visual
Localization
- arxiv url: http://arxiv.org/abs/2305.05301v1
- Date: Tue, 9 May 2023 09:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:42:34.654011
- Title: Eiffel Tower: A Deep-Sea Underwater Dataset for Long-Term Visual
Localization
- Title(参考訳): Eiffel Tower:長期視覚的位置推定のための深海水中データセット
- Authors: Cl\'ementin Boittiaux (IFREMER, COSMER, DYNI), Claire Dune (COSMER),
Maxime Ferrera (IFREMER), Aur\'elien Arnaubec (IFREMER), Ricard Marxer
(DYNI), Marjolaine Matabos (BEEP), Lo\"ic Van Audenhaege (BEEP), Vincent
Hugel (COSMER)
- Abstract要約: 本稿では,水中の長期的視覚的局在をベンチマークするための新しいデータセットを提案する。
このデータセットは、5年間にわたって同じ熱水噴出孔への4回の訪問からの画像で構成されている。
データの分析は、長年にわたって観察されてきた大きな変化についての洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization plays an important role in the positioning and navigation
of robotics systems within previously visited environments. When visits occur
over long periods of time, changes in the environment related to seasons or
day-night cycles present a major challenge. Under water, the sources of
variability are due to other factors such as water conditions or growth of
marine organisms. Yet it remains a major obstacle and a much less studied one,
partly due to the lack of data. This paper presents a new deep-sea dataset to
benchmark underwater long-term visual localization. The dataset is composed of
images from four visits to the same hydrothermal vent edifice over the course
of five years. Camera poses and a common geometry of the scene were estimated
using navigation data and Structure-from-Motion. This serves as a reference
when evaluating visual localization techniques. An analysis of the data
provides insights about the major changes observed throughout the years.
Furthermore, several well-established visual localization methods are evaluated
on the dataset, showing there is still room for improvement in underwater
long-term visual localization. The data is made publicly available at
https://www.seanoe.org/data/00810/92226/.
- Abstract(参考訳): 視覚的ローカライゼーションは、これまで訪れた環境の中でロボットシステムの位置決めとナビゲーションにおいて重要な役割を果たす。
長い時間にわたって訪れると、季節や昼のサイクルに関連する環境の変化が大きな課題となる。
水の下での変動の原因は、水の状態や海洋生物の成長など他の要因による。
しかし、これは依然として大きな障害であり、データ不足のために研究の少ないものとなっている。
本稿では,水中の長期視覚定位をベンチマークする深海データセットを提案する。
このデータセットは、5年間で同じ熱水噴出孔への4回の訪問からの画像で構成されている。
カメラのポーズとシーンの共通形状をナビゲーションデータと構造から推定した。
これは視覚的ローカライゼーション技術を評価する際に参考となる。
データの分析は、年間を通じて観察された大きな変化についての洞察を提供する。
さらに, 水中の長期的視覚的局所化を改善する余地があることを示すために, データセット上で, 確立された視覚的局所化手法の評価を行った。
データはhttps://www.seanoe.org/data/00810/92226/で公開されている。
関連論文リスト
- Science Time Series: Deep Learning in Hydrology [0.0]
降雨と流出に関するCAMELSとCaravanのグローバルデータセットを用いて,水文学時系列を解析した。
この分析は完全にオープンソースで、Google Colab上で実行されているJupyter NotebookはLSTMベースの分析とデータエンジニアリング前処理の両方に対応している。
論文 参考訳(メタデータ) (2024-10-19T21:23:48Z) - A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning [51.7818820745221]
水中画像強調(UIE)はコンピュータビジョン研究において重要な課題である。
多数のUIEアルゴリズムが開発されているにもかかわらず、網羅的で体系的なレビューはいまだに欠落している。
論文 参考訳(メタデータ) (2024-05-30T04:46:40Z) - Nothing Stands Still: A Spatiotemporal Benchmark on 3D Point Cloud
Registration Under Large Geometric and Temporal Change [86.44429778015657]
人工空間の3次元幾何学地図の構築は、基本的なコンピュータビジョンとロボット工学である。
Not Stands Still (NSS)ベンチマークは、大きな空間的および時間的変化を行う3Dシーンの時間的登録に焦点を当てている。
NSSの一環として,建設中または改修中の大規模建築屋内環境において,3次元点雲のデータセットを連続的に取得する。
論文 参考訳(メタデータ) (2023-11-15T20:09:29Z) - What you see is what you get: Experience ranking with deep neural
dataset-to-dataset similarity for topological localisation [19.000718685399935]
本稿では,画像のデータセットを比較するための高度にスケーラブルなツールとして,最近開発されたVisual DNAを適用することを提案する。
ローカライゼーションの場合、パフォーマンスに影響を与える重要なデータセットの違いは、天気、照明、季節など、外観の変化のモードである。
これらの統計の相違は、過去の経験と同一の出現ギャップを用いたローカライズにおける性能と相関することがわかった。
論文 参考訳(メタデータ) (2023-10-20T16:13:21Z) - The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking
Datasets [8.830479021890575]
我々は,地中海と紅海の前方視像と視界慣性画像集合を収集した。
これらのデータセットは、障害物回避、視覚計測、3Dトラッキング、3Dローカライゼーションとマッピング(SLAM)、深さ推定など、いくつかの水中アプリケーションの開発に欠かせない。
論文 参考訳(メタデータ) (2023-02-24T17:39:53Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - Structured Scene Memory for Vision-Language Navigation [155.63025602722712]
視覚言語ナビゲーション(VLN)のための重要なアーキテクチャを提案する。
ナビゲーション中に知覚を正確に記憶できるほど区画化されている。
また、環境内の視覚的および幾何学的な手がかりを捉え、取り除く、構造化されたシーン表現としても機能する。
論文 参考訳(メタデータ) (2021-03-05T03:41:00Z) - SeasonDepth: Cross-Season Monocular Depth Prediction Dataset and
Benchmark under Multiple Environments [34.96507991067661]
本研究では,最初のクロスシーズン単眼深度予測データセットとベンチマークである seasonDepth を紹介する。
提案手法は, 提案手法を用いて, 最先端の代表的オープンソース管理手法と自己監督型深度予測手法について検討する。
長期的な単眼深度予測はいまだに困難であり、我々の研究は、屋外視覚知覚の長期的な堅牢性と一般化に関するさらなる研究を促進することができると信じている。
論文 参考訳(メタデータ) (2020-11-09T13:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。