論文の概要: Machine Vision based Sample-Tube Localization for Mars Sample Return
- arxiv url: http://arxiv.org/abs/2103.09942v1
- Date: Wed, 17 Mar 2021 23:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 14:14:30.777055
- Title: Machine Vision based Sample-Tube Localization for Mars Sample Return
- Title(参考訳): 機械ビジョンに基づく火星サンプルリターンのためのサンプルチューブ位置決め
- Authors: Shreyansh Daftry, Barry Ridge, William Seto, Tu-Hoa Pham, Peter
Ilhardt, Gerard Maggiolino, Mark Van der Merwe, Alex Brinkman, John Mayo,
Eric Kulczyski and Renaud Detry
- Abstract要約: マーズ・サンプル・リターン(MSR)アーキテクチャはNASAとESAが共同で研究している。
本稿では,MSRのフェッチ部分に着目し,より具体的には火星表面に堆積した試料管を自律的に検出・位置決めする問題について述べる。
まず,ハードコードフィルタとチューブの3次元形状モデルを用いたテンプレートマッチングに基づく幾何駆動アプローチと,畳み込みニューラルネットワーク(cnns)に基づくデータ駆動アプローチと学習機能について検討した。
- 参考スコア(独自算出の注目度): 3.548901442158138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A potential Mars Sample Return (MSR) architecture is being jointly studied by
NASA and ESA. As currently envisioned, the MSR campaign consists of a series of
3 missions: sample cache, fetch and return to Earth. In this paper, we focus on
the fetch part of the MSR, and more specifically the problem of autonomously
detecting and localizing sample tubes deposited on the Martian surface. Towards
this end, we study two machine-vision based approaches: First, a
geometry-driven approach based on template matching that uses hard-coded
filters and a 3D shape model of the tube; and second, a data-driven approach
based on convolutional neural networks (CNNs) and learned features.
Furthermore, we present a large benchmark dataset of sample-tube images,
collected in representative outdoor environments and annotated with ground
truth segmentation masks and locations. The dataset was acquired systematically
across different terrain, illumination conditions and dust-coverage; and
benchmarking was performed to study the feasibility of each approach, their
relative strengths and weaknesses, and robustness in the presence of adverse
environmental conditions.
- Abstract(参考訳): 火星サンプルリターン(MSR)アーキテクチャはNASAとESAが共同で研究している。
現在想定されているように、MSRキャンペーンはサンプルキャッシュ、フェッチ、地球への帰還という3つのミッションからなる。
本稿では,MSRのフェッチ部分に着目し,より具体的には火星表面に堆積した試料管を自律的に検出・位置決めする問題について述べる。
この目的に向けて,2つのマシンビジョンに基づくアプローチについて検討した。1つは,ハードコードされたフィルタとチューブの3次元形状モデルを用いたテンプレートマッチングに基づく幾何駆動アプローチ,もう1つは畳み込みニューラルネットワーク(cnns)と学習機能に基づくデータ駆動アプローチである。
さらに,サンプルチューブ画像の大規模ベンチマークデータセットを屋外の代表的な環境に収集し,グランド・トゥルーション・セグメンテーション・マスクと位置をアノテートした。
このデータセットは, 異なる地形, 照明条件, ダストカバーを体系的に取得し, それぞれのアプローチの実施可能性, 相対強度, 弱さ, 悪条件下でのロバスト性について, ベンチマークを行った。
関連論文リスト
- Unsupervised Machine Learning for Detecting and Locating Human-Made Objects in 3D Point Cloud [4.325161601374467]
本研究は,自然木構造中の人工物の検出と同定という,新しい課題を紹介する。
提案手法は, 地中フィルタリング, 局所情報抽出, クラスタリングの3段階からなる。
実験により,提案手法は従来の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-10-25T23:20:57Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Hardware-accelerated Mars Sample Localization via deep transfer learning
from photorealistic simulations [1.3075880857448061]
マーズ・サンプル・リターン(Mars Sample Return)キャンペーンの目標は、火星の表面から土壌サンプルを集め、さらなる研究のために地球に戻すことである。
サンプル・フェッチ・ローバーは、最大35個のサンプル・チューブを火星の土の上に設置し、回収する役割を担っていると期待されている。
本研究は,サンプル管の自律的検出とポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T14:05:25Z) - TerrainMesh: Metric-Semantic Terrain Reconstruction from Aerial Images
Using Joint 2D-3D Learning [20.81202315793742]
本稿では,視覚的オドメトリーアルゴリズムによって保持される各カメラにおける局所的メートル法-セマンティックメッシュを再構築する2次元3次元学習手法を提案する。
メッシュはグローバル環境モデルに組み立てて、オンライン操作中の地形のトポロジとセマンティクスをキャプチャすることができる。
論文 参考訳(メタデータ) (2022-04-23T05:18:39Z) - A spatio-temporal LSTM model to forecast across multiple temporal and
spatial scales [0.0]
本稿では,環境データセットに適用した時系列予測のための新しい時空間LSTM(SPATIAL)アーキテクチャを提案する。
このフレームワークは、複数のセンサーにまたがって評価され、現在の速度、温度、溶存酸素の3つの異なる海洋変数に対して評価された。
論文 参考訳(メタデータ) (2021-08-26T16:07:13Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。