論文の概要: AstroVision: Towards Autonomous Feature Detection and Description for
Missions to Small Bodies Using Deep Learning
- arxiv url: http://arxiv.org/abs/2208.02053v1
- Date: Wed, 3 Aug 2022 13:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:23:32.436969
- Title: AstroVision: Towards Autonomous Feature Detection and Description for
Missions to Small Bodies Using Deep Learning
- Title(参考訳): AstroVision: ディープラーニングを用いた小体へのミッションの自律的特徴検出と記述に向けて
- Authors: Travis Driver, Katherine Skinner, Mehregan Dor, Panagiotis Tsiotras
- Abstract要約: 本稿では,過去および現在進行中の16個の小天体の115,970個の濃密な注釈付き実画像からなる大規模データセットAstroVisionを紹介する。
我々はAstroVisionを活用し、標準化されたベンチマークのセットを開発し、手工芸品とデータ駆動型特徴検出および記述方法の徹底的な評価を行う。
次に、最先端の深い特徴検出・記述ネットワークのエンドツーエンドトレーニングにAstroVisionを使用し、複数のベンチマークの性能向上を実証する。
- 参考スコア(独自算出の注目度): 14.35670544436183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Missions to small celestial bodies rely heavily on optical feature tracking
for characterization of and relative navigation around the target body. While
deep learning has led to great advancements in feature detection and
description, training and validating data-driven models for space applications
is challenging due to the limited availability of large-scale, annotated
datasets. This paper introduces AstroVision, a large-scale dataset comprised of
115,970 densely annotated, real images of 16 different small bodies captured
during past and ongoing missions. We leverage AstroVision to develop a set of
standardized benchmarks and conduct an exhaustive evaluation of both
handcrafted and data-driven feature detection and description methods. Next, we
employ AstroVision for end-to-end training of a state-of-the-art, deep feature
detection and description network and demonstrate improved performance on
multiple benchmarks. The full benchmarking pipeline and the dataset will be
made publicly available to facilitate the advancement of computer vision
algorithms for space applications.
- Abstract(参考訳): 小さな天体へのミッションは、光学的特徴追跡に大きく依存し、対象天体の周囲の相対的な航法を特徴づける。
深層学習は、機能検出と記述の大幅な進歩をもたらしたが、大規模で注釈付きデータセットの可用性が限られているため、宇宙アプリケーションのためのデータ駆動モデルのトレーニングと検証は困難である。
本稿では,過去および現在進行中の16個の小天体の115,970個の濃密な注釈付き実画像からなる大規模データセットAstroVisionを紹介する。
我々はAstroVisionを活用し、標準化されたベンチマークのセットを開発し、手工芸品とデータ駆動型特徴検出および記述方法の徹底的な評価を行う。
次に、最先端の深い特徴検出・記述ネットワークのエンドツーエンドトレーニングにAstroVisionを使用し、複数のベンチマークの性能向上を示す。
完全なベンチマークパイプラインとデータセットが公開され、宇宙アプリケーションのためのコンピュータビジョンアルゴリズムの進歩が促進される。
関連論文リスト
- MARs: Multi-view Attention Regularizations for Patch-based Feature Recognition of Space Terrain [4.87717454493713]
現在のアプローチは、事前収集されたパッチベースの機能とテンプレートマッチングに依存している。
マルチビューアテンション・レギュラライゼーション(MAR)を導入し,複数の特徴ビューにまたがるチャネルと空間的注意を制約する。
地形特徴認識性能は85%以上向上した。
論文 参考訳(メタデータ) (2024-10-07T16:41:45Z) - LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Large Scale Real-World Multi-Person Tracking [68.27438015329807]
本稿では,新しい大規模多人数追跡データセットであるtexttPersonPath22を提案する。
MOT17、HiEve、MOT20などの高品質なマルチオブジェクト追跡データセットよりも桁違いに大きい。
論文 参考訳(メタデータ) (2022-11-03T23:03:13Z) - Scalable semi-supervised dimensionality reduction with GPU-accelerated
EmbedSOM [0.0]
BlosSOMは高次元データセットの対話型ユーザステアブル可視化のための高性能半教師付き次元減少ソフトウェアである。
現実的なデータセットにBlosSOMを適用することで、ユーザが指定したレイアウトを組み込んだ高品質な視覚化と、特定の機能に集中することが可能になる。
論文 参考訳(メタデータ) (2022-01-03T15:06:22Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z) - DeepSatData: Building large scale datasets of satellite images for
training machine learning models [77.17638664503215]
本稿では,機械学習モデルの学習のための衛星画像データセットの自動生成のための設計検討を行う。
本稿では,ニューラルネットワークの深層学習と評価の観点から直面する課題について論じる。
論文 参考訳(メタデータ) (2021-04-28T15:13:12Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。