論文の概要: ConeQuest: A Benchmark for Cone Segmentation on Mars
- arxiv url: http://arxiv.org/abs/2311.08657v1
- Date: Wed, 15 Nov 2023 02:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 17:26:07.247102
- Title: ConeQuest: A Benchmark for Cone Segmentation on Mars
- Title(参考訳): ConeQuest:火星でのコーンセグメンテーションのベンチマーク
- Authors: Mirali Purohit, Jacob Adler, Hannah Kerner
- Abstract要約: ConeQuestは、火星の円錐を識別する最初の専門家による公開データセットである。
本研究では,(i)空間一般化と(ii)コーンサイズ一般化という2つのベンチマークタスクを提案する。
- 参考スコア(独自算出の注目度): 9.036303895516745
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Over the years, space scientists have collected terabytes of Mars data from
satellites and rovers. One important set of features identified in Mars orbital
images is pitted cones, which are interpreted to be mud volcanoes believed to
form in regions that were once saturated in water (i.e., a lake or ocean).
Identifying pitted cones globally on Mars would be of great importance, but
expert geologists are unable to sort through the massive orbital image archives
to identify all examples. However, this task is well suited for computer
vision. Although several computer vision datasets exist for various
Mars-related tasks, there is currently no open-source dataset available for
cone detection/segmentation. Furthermore, previous studies trained models using
data from a single region, which limits their applicability for global
detection and mapping. Motivated by this, we introduce ConeQuest, the first
expert-annotated public dataset to identify cones on Mars. ConeQuest consists
of >13k samples from 3 different regions of Mars. We propose two benchmark
tasks using ConeQuest: (i) Spatial Generalization and (ii) Cone-size
Generalization. We finetune and evaluate widely-used segmentation models on
both benchmark tasks. Results indicate that cone segmentation is a challenging
open problem not solved by existing segmentation models, which achieve an
average IoU of 52.52% and 42.55% on in-distribution data for tasks (i) and
(ii), respectively. We believe this new benchmark dataset will facilitate the
development of more accurate and robust models for cone segmentation. Data and
code are available at https://github.com/kerner-lab/ConeQuest.
- Abstract(参考訳): 長年にわたり、宇宙科学者は衛星や探査機から火星のデータを収集してきた。
火星の軌道画像で特定された重要な特徴の1つは、かつて水が飽和していた地域(すなわち湖や海)に形成された泥火山と解釈される孔食錐である。
火星で穴を掘った円錐体を同定することは非常に重要だが、専門家の地質学者は全ての例を識別するために巨大な軌道画像アーカイブを分類することはできない。
しかし、このタスクはコンピュータビジョンに適している。
火星関連のタスクにはいくつかのコンピュータビジョンデータセットが存在するが、コーン検出/分離のためのオープンソースデータセットは現在存在しない。
さらに、以前の研究では、単一の領域のデータを使用してモデルを訓練し、グローバルな検出とマッピングの適用性を制限した。
これに触発されたConeQuestは、火星の円錐を識別する最初の専門家による公開データセットである。
conequestは、3つの異なる火星地域から13k以上のサンプルで構成されている。
ConeQuest を用いた2つのベンチマークタスクを提案する。
(i)空間の一般化及び
(二)コーンサイズの一般化
両ベンチマークタスクで広く使われているセグメンテーションモデルを精査し評価する。
その結果、コーンセグメンテーションは既存のセグメンテーションモデルでは解決されない難解なオープン問題であり、タスクの分散データの平均iouは52.52%、42.55%である。
(i)および
(ii)であった。
この新しいベンチマークデータセットは、コーンセグメンテーションのより正確で堅牢なモデルの開発を促進するだろうと考えています。
データとコードはhttps://github.com/kerner-lab/ConeQuestで入手できる。
関連論文リスト
- LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - Mapping "Brain Terrain" Regions on Mars using Deep Learning [0.0]
臨界領域のセットは、火星の斜視の周期的な変化に反応して、比較的最近に氷が噴出するサイクルを見た可能性がある。
本研究では、畳み込みニューラルネットワークを用いて「ブラインコーラル」地形を含む表面領域を検出する。
火星探査機マーズ・リコネッサンス・オービター(Mars Reconnaissance Orbiter)の大型画像(100-1000メガピクセル)を使って、これらの地形を1ピクセルあたり数十センチ近い解像度で探索する。
論文 参考訳(メタデータ) (2023-11-21T02:24:52Z) - Semi-Supervised Domain Adaptation for Cross-Survey Galaxy Morphology
Classification and Anomaly Detection [57.85347204640585]
We developed a Universal Domain Adaptation method DeepAstroUDA。
異なるタイプのクラスオーバーラップしたデータセットに適用することができる。
初めて、我々は2つの非常に異なる観測データセットに対するドメイン適応の有効利用を実演した。
論文 参考訳(メタデータ) (2022-11-01T18:07:21Z) - 1st Place Solution of The Robust Vision Challenge (RVC) 2022 Semantic
Segmentation Track [67.56316745239629]
本報告では,ECCV 2022におけるロバストビジョンチャレンジのセマンティックセグメンテーション課題に対する勝利解について述べる。
本手法では,エンコーダとしてFAN-B-Hybridモデルを採用し,セグメンテーションフレームワークとしてSegformerを使用している。
提案手法は,マルチドメインセグメンテーションタスクの強力なベースラインとして機能し,今後の作業に役立てることができる。
論文 参考訳(メタデータ) (2022-10-23T20:52:22Z) - S$^{5}$Mars: Semi-Supervised Learning for Mars Semantic Segmentation [18.92602724896845]
火星のセマンティックセグメンテーションは、ローバーの自律計画と安全な運転の基盤である重要な火星ビジョンタスクである。
優れたモデルを得るためには、ほとんどのディープラーニングメソッドが正確に要求する、十分な詳細かつ高信頼のデータアノテーションが欠如している。
本稿では,共同データと手法設計の観点からその解決策を提案する。
実験結果から,本手法は最先端のSSL手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-04T05:03:10Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Machine Vision based Sample-Tube Localization for Mars Sample Return [3.548901442158138]
マーズ・サンプル・リターン(MSR)アーキテクチャはNASAとESAが共同で研究している。
本稿では,MSRのフェッチ部分に着目し,より具体的には火星表面に堆積した試料管を自律的に検出・位置決めする問題について述べる。
まず,ハードコードフィルタとチューブの3次元形状モデルを用いたテンプレートマッチングに基づく幾何駆動アプローチと,畳み込みニューラルネットワーク(cnns)に基づくデータ駆動アプローチと学習機能について検討した。
論文 参考訳(メタデータ) (2021-03-17T23:09:28Z) - Sketch and Scale: Geo-distributed tSNE and UMAP [75.44887265789056]
地理的に分散したデータセット上で機械学習分析を実行することは、急速に発生する問題である。
私たちはSketch and Scale(SnS)という新しいフレームワークを紹介します。
これはCount Sketchデータ構造を利用して、エッジノード上のデータを圧縮し、マスターノード上の縮小サイズスケッチを集約し、サマリ上でバニラtSNEまたはUMAPを実行する。
我々は、この技術が完全に並列で、線形に時間にスケールし、メモリに対数的に分散し、通信し、世界中の複数のデータセンターにまたがる数百万、数十億のデータポイントでデータセットを解析できることを示す。
論文 参考訳(メタデータ) (2020-11-11T22:32:21Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。