論文の概要、ライセンス

# (参考訳) 仮想テンプレート合成とマッチングによる火星試料のローバー再局在化 [全文訳有]

Rover Relocalization for Mars Sample Return by Virtual Template Synthesis and Matching ( http://arxiv.org/abs/2103.03395v1 )

ライセンス: CC BY 4.0
Tu-Hoa Pham, William Seto, Shreyansh Daftry, Barry Ridge, Johanna Hansen, Tristan Thrush, Mark Van der Merwe, Gerard Maggiolino, Alexander Brinkman, John Mayo, Yang Cheng, Curtis Padgett, Eric Kulczycki, Renaud Detry(参考訳) 我々は、概念火星サンプルリターンキャンペーンの文脈におけるローバー再局在化の問題を検討する。 このキャンペーンでは、ローバー(R1)は、別のローバー(R0)によって数年前に収集された参照画像を使用して、約50 x 50 mの領域内を自律的にナビゲートおよびローカライズできる必要があります。 本研究では,相対的に不規則な地形に対してロバスト性を示す視覚ローカライザーを提案し,r0とr1の照明と視点の違いを明らかにした。 ローカライザは、参照r0画像から構築されたメッシュの部分レンダリングを合成し、r1画像とマッチングする。 提案手法は,予測環境条件(地形,照明,接近角)を網羅した2160枚の画像のデータセット上で評価した。 実験結果は、我々のアプローチの有効性を示しています。 この作品は、別のローバー(R1)による将来の検索のために、Perseverance(R0)がサンプルチューブのセットを配置するサイトの選択に関するMars Sample Returnキャンペーンを知らせます。

We consider the problem of rover relocalization in the context of the notional Mars Sample Return campaign. In this campaign, a rover (R1) needs to be capable of autonomously navigating and localizing itself within an area of approximately 50 x 50 m using reference images collected years earlier by another rover (R0). We propose a visual localizer that exhibits robustness to the relatively barren terrain that we expect to find in relevant areas, and to large lighting and viewpoint differences between R0 and R1. The localizer synthesizes partial renderings of a mesh built from reference R0 images and matches those to R1 images. We evaluate our method on a dataset totaling 2160 images covering the range of expected environmental conditions (terrain, lighting, approach angle). Experimental results show the effectiveness of our approach. This work informs the Mars Sample Return campaign on the choice of a site where Perseverance (R0) will place a set of sample tubes for future retrieval by another rover (R1).
公開日: Fri, 5 Mar 2021 00:18:33 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Rover Relocalization for Mars Sample Return by 火星サンプルリターンのためのローバー再配置 0.71
Virtual Template Synthesis and Matching 仮想テンプレートの合成とマッチング 0.90
Tu-Hoa Pham, William Seto, Shreyansh Daftry, Barry Ridge, Johanna Hansen, Tristan Thrush, Mark Van der Merwe, Gerard Maggiolino, Alexander Brinkman, John Mayo, Yang Cheng, Curtis Padgett, Eric Kulczycki and Renaud Detry Jet Propulsion Laboratory, California Institute of Technology, Pasadena, CA Tu-Hoa Pham, William Seto, Shreyansh Daftry, Barry Ridge, Johanna Hansen, Tristan Thrush, Mark Van der Merwe, Gerard Maggiolino, Alexander Brinkman, John Mayo, Yang Cheng, Curtis Padgett, Eric Kulczycki and Renaud Detry Jet Propulsion Laboratory, California Institute of Technology, Pasadena, CA 0.88
1 2 0 2 r a M 5 ] O R . 1 2 0 2 r a m 5 ] o r である。 0.78
s c [ 1 v 5 9 3 3 0 . s c [ 1 v 5 9 3 3 0 ] である。 0.79
3 0 1 2 : v i X r a 3 0 1 2 : v i X r a 0.85
Abstract— We consider the problem of rover relocalization in the context of the notional Mars Sample Return campaign. 概要 — 概念火星サンプルリターンキャンペーンの文脈におけるローバー再局在化の問題を検討する。 0.70
In this campaign, a rover (R1) needs to be capable of autonomously navigating and localizing itself within an area of approximately 50 × 50 m using reference images collected years earlier by another rover (R0). このキャンペーンでは、ローバー(R1)は、別のローバー(R0)によって数年前に収集された参照画像を使用して、約50 × 50 mの領域内を自律的にナビゲートおよびローカライズできる必要があります。 0.62
We propose a visual localizer that exhibits robustness to the relatively barren terrain that we expect to find in relevant areas, and to large lighting and viewpoint differences between R0 and R1. 本研究では,相対的に不規則な地形に対してロバスト性を示す視覚ローカライザーを提案し,r0とr1の照明と視点の違いを明らかにした。 0.62
The localizer synthesizes partial renderings of a mesh built from reference R0 images and matches those to R1 images. ローカライザは、参照r0画像から構築されたメッシュの部分レンダリングを合成し、r1画像とマッチングする。
訳抜け防止モード: ローカライザは、参照r0画像から構築したメッシュの部分レンダリングを合成する r1画像と一致します
0.66
We evaluate our method on a dataset totaling 2160 images covering the range of expected environmental conditions (terrain, lighting, approach angle). 提案手法は,予測環境条件(地形,照明,接近角)を網羅した2160枚の画像のデータセット上で評価した。 0.80
Experimental results show the effectiveness of our approach. 実験結果は、我々のアプローチの有効性を示しています。 0.57
This work informs the Mars Sample Return campaign on the choice of a site where Perseverance (R0) will place a set of sample tubes for future retrieval by another rover (R1). この作品は、別のローバー(R1)による将来の検索のために、Perseverance(R0)がサンプルチューブのセットを配置するサイトの選択に関するMars Sample Returnキャンペーンを知らせます。 0.75
I. INTRODUCTION The Mars 2020 Perseverance rover that launched in July will search for signs of ancient life on Mars by collecting samples from Martian rocks and soil using an arm-mounted drill. 私。 導入 7月に打ち上げられたmars 2020 perseverance roverは、火星の岩石や土壌のサンプルをアームマウントドリルで収集し、火星の古代生命の痕跡を探す。 0.65
These sample will be stored in hermetically-sealed sample tubes and released at one or multiple sample cache depots, for possible recovery via a notional NASA-ESA follow-up mission that would land in 2028, Mars Sample Return (MSR) [25]. これらのサンプルは、hermetlyseaed sample tubesに格納され、1つまたは複数のサンプルキャッシュデポに放出され、2028年に着陸するnasa-esaの計画的なフォローアップミッション、mars sample return (msr) [25]で回収される。 0.73
The mission would include a rover (the sample-fetching rover, SFR) and a rocket (the Mars ascent vehicle, MAV). このミッションには、ローバー(サンプルフェッチングローバー、SFR)とロケット(火星昇降車、MAV)が含まれる。
訳抜け防止モード: ミッションにはローバー(サンプル - フェッチングローバー、SFR)が含まれます。 そしてロケット(火星の上昇の車、MAV)。
0.68
SFR would drive to the sample cache depots, pick up the tubes and bring them back to the lander for transfer and launch to Mars orbit through the MAV. SFRはサンプルのキャッシュ補給所まで運転し、管を拾い上げ、それらを着陸船に持ち帰り、MAVを介して火星軌道に打ち上げる。 0.68
Finally, a probe would capture the container in orbit and bring it back to Earth for sample containment and analysis. 最後に、プローブは軌道上のコンテナを捕捉し、サンプルの封じ込めと分析のために地球に持ち帰ります。 0.84
This paper focuses on the sample retrieval phase of the campaign, in particular the problem of in-depot navigation for tube pickup. 本稿では,このキャンペーンのサンプル検索フェーズ,特にチューブピックアップにおけるイン・デポット・ナビゲーションの問題に焦点を当てる。 0.69
While Mars rovers intended to survive the Martian winter have used radioisotope heating units or thermoelectric J. Hanssen, T. Thrush, M. Van der Merwe, G. Maggiolino conducted their work as JPL interns. 火星の冬を生き残ることを意図した火星探査機は放射性同位体加熱装置や熱電発電のJ. Hanssen、T. Thrush、M. Van der Merwe、G. MaggiolinoがJPLインターンとして活動した。 0.63
They are now with, respectively, McGill University, Facebook AI Research, University of Michigan, Carnegie Mellon University. 彼らはそれぞれ、マギル大学、Facebook AI Research、ミシガン大学、カーネギーメロン大学に在籍している。 0.69
The research described in this paper was carried out at the Jet Propulsion Laboratory, California Institute of Technology, under a contract with the National Aeronautics and Space Administration. 本研究は、カリフォルニア工科大学ジェット推進研究所(Jet Propulsion Laboratory)で、アメリカ航空宇宙局(National Aeronautics and Space Administration)との契約のもと行われた。 0.83
The information presented about potential Mars Sample Return architectures is provided for planning and discussion purposes only. 潜在的な火星サンプルリターンアーキテクチャに関する情報は、計画と議論のためにのみ提供される。 0.67
NASA has made no official decision to implement Mars Sample Return. NASAは火星サンプルリターンの実施を公式に決定していない。 0.75
Copyright 2020 California Institute of Technology. 著作権 2020 カリフォルニア工科大学。 0.71
U.S. Government sponsorship acknowledged. 米国政府のスポンサーは認めた。 0.61
generators, the base SFR design calls for neither to limit costs, and should complete its mission in a single season before shutting down forever. 発電機、ベースSFR設計はコストを制限せず、永遠にシャットダウンする前に1シーズンでミッションを完了する必要があります。 0.77
Accounting for a notional 10 km drive to the sample depot(s) and back to the MAV leaves only 30 sols for SFR to pick up 36 tubes. 概念的な10キロのドライブの会計は、サンプルデポに、MAVに戻って、SFRが36のチューブを拾うためにわずか30ソルを残します。
訳抜け防止モード: サンプルdepot(s)への表記10kmドライブの会計 また,MAVに戻ると,SFRが36本の管を拾うためのソルは30個しかなかった。
0.71
Due to limited Earth-Mars communication windows, ground-in-theloop tube pickup takes a minimum 3-sol-per-tube pickup time. 地球と火星の通信窓が限られているため、地上管のピックアップには最低3ソル1チューブのピックアップ時間がかかる。 0.43
SFR thus needs to retrieve tube autonomously, with minimal guidance from operators on Earth. そのためsfrは、地球上のオペレーターからの最小限のガイダンスで、チューブを自律的に回収する必要がある。 0.48
Towards this, Perseverance will document depots by capturing images as it drops sample tubes. これに向けて、Perseveranceはサンプルチューブを落として画像をキャプチャしてデポを文書化する。 0.61
These images will be telemetered to Earth to reconstruct a map of the depot annotated with tube poses. これらの画像は、チューブのポーズでアノテートされた補給所の地図を再構築するために地球にテレメーターされる。
訳抜け防止モード: これらの画像は地球にテレメーターされる 管のポーズでアノテートされた 補給所の地図を再構築する
0.69
SFR will retrieve sample tubes by relocalizing itself with respect to that map, years later. sfrは、その地図に関して再局在化することでサンプルチューブを回収する。 0.66
This is a difficult problem for multiple reasons. これは複数の理由から難しい問題です。 0.78
In contrast to relocalization on Earth, which often benefits from humanmade objects and environments with distinctive visual structures, the surface of Mars mostly consists of desert-like environments with fewer salient features. 地球上の再局在化とは対照的に、火星の表面は主に砂漠のような環境であり、サルエントな特徴は少ない。
訳抜け防止モード: 地球上の再局在とは対照的に しばしば、独特の視覚構造を持つ人工物や環境からの恩恵を受ける。 火星の表面は主に砂漠でできています。
0.67
The (changing) interaction of light with small rocks and other terrain features further complicates the problem. 光と小さな岩や他の地形との(変化の)相互作用は問題をさらに複雑にする。 0.83
The difficulty of relocalization in changing environments is well-established on Earth [35]. 環境変化における再局在の難しさは, 地球上では十分に確立されている[35]。 0.60
Anecdotally, we observe the same challenges on Mars. 例によって、我々は火星で同じ課題を観察する。 0.57
We depict in Fig 1 two stereo pairs that featurebased localization [20] failed to align despite being from the exact same viewpoint but under different lighting. 図1の2つのステレオペアでは, 全く同じ視点からではなく, 異なる照明下では, 特徴ベースの局在 [20] が一致しなかった。 0.70
In addition to lighting changes, relocalization must be robust to other environment changes such as dust deposition or accumulation of sand to form small drifts. 照明の変化に加えて、砂塵の堆積や砂の蓄積などの環境変化に対して、再局在性は強固で、小さなドリフトを形成する必要がある。
訳抜け防止モード: 照明の変化に加えて, 粉塵沈着などの環境変化にもロバストでなければならない 砂の蓄積や 小さなドリフトを作ります
0.78
In that sense, the nature and timeline of the mission permits dedicating special care to the crafting of the map, e g , by selecting landmarks that are more likely persist over time. その意味では、ミッションの性質とタイムラインは、時間とともに持続するであろうランドマークを選択することで、地図の製作に特別な注意を払うことができる。 0.71
In this paper, we propose a novel method for relocalization over changing environments by Virtual Template Synthesis and Matching (VTSM). 本稿では,仮想テンプレート合成とマッチング(VTSM)による環境変化に対する新たな局所化手法を提案する。 0.88
Our work builds upon the state of the art in multiple areas of visual localization (see Section II) and offers the following contributions. 私たちの作品は、視覚的なローカライゼーションのさまざまな領域における芸術の現状に基づいている(セクションiiを参照)。 0.60
• A relocalization algorithm that synthesizes partial renderings of multiple points of interest on the map, as perceived from multiple virtual poses, and matches them to real observations across multiple modalities (sizes and filters) for changing environments (see Section III). • 複数の仮想ポーズから知覚されるように、マップ上の複数の関心点の部分レンダリングを合成し、変更環境のための複数のモダリティ(サイズとフィルタ)の実際の観察と一致する再局在化アルゴリズム(セクションIIIを参照)。 0.86
• A new dataset spanning the range of environmental conditions we expect to face on Mars, including 3 terrain 3つの地形を含む、火星で直面するであろう環境条件の範囲にまたがる新しいデータセット 0.76
英語(論文から抽出)日本語訳スコア
types, captured by 4 cameras along 60 viewpoints at 3 times of the day, totalling 2160 images annotated with ground-truth poses from a motion capture system (see Section IV). 1日の3回に60の視点で4台のカメラで撮影され、2160枚の画像がモーションキャプチャーシステムからアノテートされている(第4部を参照)。 0.67
We release our dataset publicly to foster the research in this exciting problem for space exploration1. 宇宙探査1のこのエキサイティングな問題の研究を促進するために、データセットを公開します。
訳抜け防止モード: データセットを公開し 宇宙探査1のこのエキサイティングな問題の 研究を促進するためです
0.76
• An extensive performance and sensitivity analysis for our method, leading to recommendations on depot mapping and navigation strategies (see Section V). •本手法の広範な性能および感度分析により,補給所のマッピングおよびナビゲーション戦略を推奨する(第5節参照)。 0.83
We finally discuss challenges we encountered, current limitations and future extensions of our work (see Section VI). 最終的に直面した課題、現在の制限、そして今後の作業の拡張について議論します(セクションVIを参照)。 0.54
(a) 2014-05-02 at 16:19:00. (a)2014-05-0216:19:0 0。 0.50
(b) 2014-05-04 at 08:33:34. (b) 2014-05-04 08:33:34。 0.56
Fig. 1. Stereo images captured on Mars from the same viewpoint at different times (available https://pds-imaging. jpl.nasa.gov/). フィギュア。 1. 同じ視点から火星で撮影されたステレオ画像(https://pds-imaging .jpl.nasa.gov/)。 0.64
II. RELATED WORK In this work, we consider the problem of relocalization of a rover with respect to a map built from images captured by another rover, years prior. II。 関連作業 本研究では,数年前に別のローバーが撮影した画像から構築した地図に関して,ローバーの再局在の問題を考える。 0.68
Autonomous localization capabilities on Mars rovers are currently limited to motion estimation by visual-inertial odometry (VIO) [21], [18], and absolute orientation estimation using gravity and Sun position in the sky [1], [17]. 火星探査機の自律的な位置決め機能は、現在、視覚慣性オドメトリー (VIO) [21], [18] による動き推定と、天空における重力と太陽の位置を用いた絶対方位推定に限られている。 0.84
Mars rovers do not implement onboard absolute position estimation. 火星探査機は絶対位置推定を実装していない。 0.59
Instead, it is conducted on Earth, by aligning rover and orbital imagery [10], [6], [38] with meterscale accuracy (Mars Reconnaissance Orbiter). 代わりに、ローバーと軌道画像[10]、[6]、[38]をメータースケールの精度(Mars Reconnaissance Orbiter)で調整することによって、地球上で行われます。 0.73
While VIO could be used to estimate relative poses between rovers, it is also vulnerable to environment changes, e g , lighting [31]. VIOはローバー間の相対的なポーズを推定するのに使えるが、環境の変化(例えば、照明[31])にも弱い。 0.58
Localization techniques leveraging 3D structure [3] can mitigate the effects of lighting changes, e g , by performing 3D registration using iterative closest point (ICP) [4] or fast point feature histograms (FPFH) [33]. 3D構造[3]を利用した局所化技術は、反復的最近点(ICP)[4]または高速点特徴ヒストグラム(FPFH)[33]を用いて3D登録を行うことで、照明変化の影響を緩和することができる。 0.84
However, those tend to converge towards local optima in the absence of an accurate pose prior, especially on the rather flat terrains that may serve for depot construction. しかし、特に補給所建設に使用される比較的平らな地形において、正確な姿勢がなければ、これらは局所的なオプティマに向かって収束する傾向がある。 0.63
We consider instead 3D (depth) reconstructed together with texture (color), e g , through Structure from Motion (SfM) [36] or Simultaneous Localization and Mapping (SLAM) [5], which can accomodate maps built over multiple sessions under the same lighting [14] or different lighting over small pose changes [27]. 3D(奥行き)をテクスチャ(色)とともに再構築し、例えばStructuture from Motion (SfM) [36] または Simultaneous Localization and Mapping (SLAM) [5] によって、同じ照明の下で複数のセッションで構築されたマップを適応させることができます [14] または小さなポーズ変更上の異なる照明 [27]。 0.88
Such 3D maps can be used for relocalization by correspondence search between features from 2D images to relocalize and a database of features associated to 3D map points [34]. このような3dマップは、2dイメージから再ローカライズする特徴と3dマップポイントに関連する特徴データベースとの対応検索によって再ローカライズに使用できる [34]。 0.80
The underlying matching schemes can also be accelerated to take advantage of multi-camera systems [13] but remain subject to similar limitations as 2D local feature matching under scene changes. 基本となるマッチングスキームは、マルチカメラシステム [13] を利用するように加速することもできるが、シーン変更による2dローカル機能マッチングと同様の制限を受ける。 0.65
Notably, [24] showed that image patches could be more robust to changing conditions than point features, though less accurate. 特に[24]は、画像パッチがポイント機能よりも変化する条件に対して堅牢である可能性を示したが、精度は低い。
訳抜け防止モード: 24] が示すように イメージパッチは、ポイント機能よりも条件変更に対して堅牢だが、正確性は低い。
0.78
While robustness can also be 1https://data.caltec h.edu/records/1898 堅牢性は 1https://data.caltec h.edu/records/1898 0.44
attained by repeated traverses under different conditions [7], [30], depot construction on Mars would be single-shot. 異なる条件 [7], [30] の繰り返しの移動によって達成された火星の補給所の建設は、単発である。
訳抜け防止モード: 異なる条件[7 ],[30 ]の繰り返しの交叉によって達成される 火星の補給所の建設は単独で行う。
0.81
In a recent benchmark of visual localization in changing conditions [35], image retrieval techniques were shown to sometimes succeed at providing a coarse pose estimate when local feature matching would fail, e g , by augmenting a mapping database with synthetic renderings [39]. 条件変化時の視覚的局所化のベンチマークでは, 局所的な特徴マッチングが失敗した場合の粗いポーズ推定を, 合成レンダリングによるマッピングデータベースの強化[39]により, 画像検索手法が成功する場合があった。 0.74
3D map rendering was also used for relocalization by minimizing distance metrics between real and synthetic observations, such as normalized information distance [28], normalized crosscorrelation [19] and photometric error [26], showing some robustness moderate lighting changes. また、3次元マップレンダリングは、正規化情報距離[28]、正規化相互相関[19]、測光誤差[26]などの実測値と合成観測値の距離を最小化することで、再局在化に利用され、ある程度の頑健性を示す。
訳抜け防止モード: 3dマップレンダリングは、実観測と合成観測の間の距離メトリクスを最小化することで、再局在化にも使用された。 正規化情報距離[28],正規化相互相関[19]など 測光誤差[26] 適度な照明変更を示す。
0.74
Changing shadows were further downweighted in the image alignment pipeline of [16] however large lighting changes remain a challenge. 16]の画像アライメントパイプラインではシャドウの変更がさらに強調されたが、大きな照明変更は依然として課題である。 0.69
We build upon these works and extend relocalization capabilities by viewpoint synthesis to extensive changes in lighting and possibly scene geometry over the years. これらの作品をもとに、視点合成による再ローカリゼーション機能を拡張し、長年にわたる照明やシーンジオメトリの広範な変化につなげています。 0.66
Instead of lighting, shadow-invariant image transformations were developed in [9], [23] assuming infinitely-narrow camera sensor responses and illumination by a single Planckian source. シャドウ不変画像変換は, [9], [23] において, 無限個のカメラセンサ応答と1つの板状光源による照明を仮定して開発された。 0.73
While the former assumption can be relaxed [29], the latter may not always hold on Mars depending on the atmosphere radiance at capture time. 前者の仮定は緩和できる[29]が、後者は捕獲時の大気の放射度に応じて常に火星に保持するとは限らない。 0.75
Similar problems were also addressed recently using deep neural networks, e g , to learn image relighting [2] and image representations that are robust to lighting changes [8], [41], [32]. 同様の問題は、たとえばディープニューラルネットワークを使って、[8], [41], [32]の照明変化にロバストなイメージリライト[2]とイメージ表現を学ぶためにも最近対処された。 0.78
While we believe such methods will result in future breakthroughs for robust relocalization on Earth, their applicability to space exploration remains restricted by the scarcity of data for training, lowcompute for space-rated hardware, limited interpretability and concerns about generalization to events unseen during training. このような手法は、地球上でのロバストな再ローカライズのための将来のブレークスルーをもたらすと信じているが、その宇宙探査への適用性は、トレーニング用データの不足、宇宙評価ハードウェアの低計算、限定的な解釈可能性、訓練中に見つからない事象への一般化に関する懸念などによって制限されている。 0.49
Still, we build our approach in such a way that it could accomodate further advances in either field. それでも、いずれの分野でもさらなる進歩を促すようなアプローチを構築しています。 0.74
relocalizing images across different 様々な画像にまたがって 0.56
III. METHOD Our goal is to enable in-depot navigation for sample tube retrieval, by estimating the 6D pose of SFR with respect to a depot map built from images taken by Perseverance several years before. III。 方法 本研究の目的は,数年前にperseveranceが撮影した画像から構築したデポマップに対して,sfrの6次元ポーズを推定することにより,サンプルチューブ検索のためのインデポナビゲーションを実現することである。 0.63
To do so, we propose a relocalization method that synthesizes partial renderings of the depot map from virtual viewpoints in the vicinity of its current pose estimate and compares those to actual observations. そこで本研究では,現在のポーズ推定値付近の仮想視点からデポマップの部分レンダリングを合成し,実際の観測値と比較する再局在化手法を提案する。 0.86
In the following, matrix variables are denoted in bold and scalar in italic. 次の例では、行列変数はイタリックで太字とスカラーで示されます。 0.64
A. Overview Let IM2020 = (IM2020 )i∈[1,N M2020] denote a set of L,i N M2020 left and right stereo image pairs captured by Perseverance during depot construction on Mars and telemetered back to Earth. A.概要 IM2020 = (IM2020 )i∈[1,N M2020]は、火星のデポ建設中にPerseveranceが撮影したL,i N M2020左右のステレオイメージペアのセットを表し、地球にテレメーターで戻る。 0.87
On Earth, we register all images IM2020 and build a map M equiped with a global frame W, in which addition, we denote by (cid:99)M a subset of M in which areas we express rover poses W TM2020 as well as tubes W TT . 地球上では、すべての画像IM2020を登録し、グローバルフレームWに同調したマップMを構築し、さらに(cid:99)Mは、ローバーを表現する領域がW TM2020と管W TTをポーズするMの部分集合を表す。 0.78
In likely to be affected by wind (e g , sand) have been removed on Earth between the Mars 2020 and MSR missions. 風(例えば砂)の影響を受けやすいものは、2020年の火星ミッションとMSRミッションの間、地球上で取り除かれた。 0.72
Consider now the task of relocalizing SFR several years after Perseverance. 持続性から数年後のSFR再局在の課題を考える。 0.67
While driving from landing site to depot, 着陸地点から補給所まで運転中。 0.56
, IM2020 R,i IM2020 R、i。 0.83
英語(論文から抽出)日本語訳スコア
W p(g) W p(r) W p(b) W p(g) W p(r) W p(b) 0.85
{W} W p(g) W p(r) W} W p(g) W p(r) 0.69
W p(b) SFRp(g) W p(b) SFRp(g) 0.85
SFRp(r) SFRp(b) SFRp(r) SFRp(b) 0.85
{SFR} SFRp(g) SFR; SFR SFRp(g) 0.77
SFRp(b) SFRp(r) SFRp(b) SFRp(r) 0.85
Fig. 2. We render points W p on the mesh built from Perseverance images from multiple virtual viewpoints (left). フィギュア。 2. 複数の仮想視点(左)からPerseveranceイメージから構築されたメッシュ上に、ポイントWpを描画する。 0.67
Synthetic templates are matched to real SFR images to compute points in camera frame SFRp (middle). 合成テンプレートは実際のSFR画像と一致し、カメラフレームSFRp(ミドル)の点を計算する。 0.78
We align both point sets to estimate the pose W T(cid:100)SFR (right, conceptual rover depicted). 両点集合は、W T(cid:100)SFR(右、概念的ローバー)を推定するために整列する。 0.62
Algorithm 1 Virtual Template Synthesis and Matching SFR’s position is monitored onboard through VIO, which depot map, (cid:99)M sampling mask, W T(cid:100)SFR initial guess R ) stereo pair captured by SFR, M Precondition: (ISFR , ISFR induces drift growing with traversed distance and corrected L by manually aligning surface and orbital imagery. Algorithm 1 Virtual Template Synthesis and Matching SFR's position is monitored onboard through VIO, which depot map, (cid:99)M sample mask, W T (cid:100)SFR initial guess R ) stereo pair captured by SFR, M precondition: (ISFR , ISFR induces drift growing with traversed distance and corrected L by ordering surface and orbit images。 0.86
When R ),M, W T(cid:100)SFR) reaching the depot, relocalization with respect to M is per1: function LOCALIZE((ISFR , ISFR L for i ← 1 to N iter do formed by manually aligning SFR and Perseverance images 2: CW/SFR ← {} instead. R、M、W T(cid:100)SFR)がデポに到達すると、Mに関する再局在化はper1である:関数LOCALIZE((ISFR , ISFR L for i ) 1 to N iterは、手動でSFRとPerseveranceイメージ2を整列することによって形成される。 0.83
Due to mission time constraints, this is done only (cid:46) world/SFR correspondences 3: while SIZE(CW/SFR) (cid:54)= NC do once. ミッション時間制限のため、これは (cid:46) world/SFR 対応3: while SIZE(CW/SFR) (cid:54)= NC do onceである。 0.83
For in-depot navigation, we then assume an SFR pose estimate W T(cid:100)SFR subject to VIO errors accumulated over W p ← SAMPLEPOINT((cid:99) M, W TV ) W TV ← RANDOMIZEVIEWPOINT(W T(cid:100)SFR) 4: 5: L ,(cid:98)IV ((cid:98)IV drives post ground-in-the-loop initialization (e g , 20 cm for ) ← MATCH((cid:98)IV 6: R ) ← SYNTHESIZE(M, W TV , W p) a few-meter drive, depending on specifications) and 1.5° R ) ← MATCH((cid:98)IV 7: uncertainty from onboard attitude estimation [1]. インデポットナビゲーションでは、sfrのポーズ推定値 wt(cid:100)sfr を w p のサンプルポイント((cid:99)m, w tv ) w tv のランダム化ビューポイント(w t(cid:100)sfr) 4: 5: l ,(cid:98)iv(((cid:98 )iv drive post ground-in-the-loop initialization (eg, 20 cm for ) の後に、match((cid:98)iv 6: r ) のsynthe(m, w tv , w p) a few-meter drive,, depending on specification) と 1.5° r ) のマッチング(cid:98)iv ((cid:98)iv を仮定する。 0.65
(uSFR L , ISFR , vSFR (cid:46) Left ) 8: L L L Pose alignment consists in computing a posterior pose given new camera images and a prior pose estimate W T(cid:100)SFR. (uSFR L , ISFR , vSFR (cid:46) left ) 8: L L L Pose アライメントは、新しいカメラ画像と先行ポーズ推定W T(cid:100)SFRを与えられた後ポーズを計算する。 0.85
(uSFR R , vSFR R , ISFR (cid:46) Right R ) 9: R ) then if VALID(uSFR R , vSFR , uSFR , vSFR 10: L L SFRp ← STEREO(uSFR We compute this alignment by simulating the SFR cameras , vSFR , uSFR R , vSFR R ) 11: from several viewpoint hypotheses V and iteratively match L L APPEND(CW/SFR, (W p, SFRp)) 12: L , IV synthetic renderings (IV images (ISFR , ISFR R ). (uSFR R , vSFR R , ISFR (cid:46) Right R ) 9: R ) then if VALID(uSFR R , vSFR , uSFR , vSFR 10: L L SFRp , STEREO(uSFR ) 11: 複数の視点から、Vと反復的にマッチするL APPEND(CW/SFR, (W p, SFRp)) 12: L , IV 合成レンダリング(IV 画像(ISFR , ISFR R )をシミュレートして、このアライメントを計算します。 0.82
R ) to real end if L 13: More precisely, in order to account for lighting and scene end while W T(cid:100)SFR ← GETTRANSFORM(CW/SFR) 14: geometry changes between mapping and relocalization, we thereof, or synthetic templates ((cid:98)IV L ,(cid:98)IV 15: do not directly align full renderings but rather patches end for return W T(cid:100)SFR 16: R ), centered on a point 17: W p and synthesized on the fly. R) L 13:より正確には、W T(cid:100)SFR(CW/SFR ) 14:マッピングと再ローカリゼーションの間の幾何学的変化、または合成テンプレート((cid:98)IV L、(cid:98)IV 15:直接完全なレンダリングを揃えるのではなく、リターンW T(cid:100)SFR 16:R)のためのパッチエンドを、ポイント17:W pを中心に、フライで合成します。 0.73
This enables: 1) efficiently 18: end function evaluating multiple viewpoint hypotheses without having to characterized by translation and rotation search bounds(cid:101)t, (cid:101)r render full images; 2) prioritizing landmarks that are likely (initially, (cid:101)t = (cid:101)t0 = 20 cm, (cid:101)r = (cid:101)r0 = 1.5°). 1) 効率良く18: 複数の視点仮説を評価するために、翻訳と回転の探索境界(cid:101)t, (cid:101)rが全画像を描画すること、2) (cid:101)t = (cid:101)t0 = 20 cm, (cid:101)r0 = 1.5° の可能性のあるランドマークの優先順位付けを行う。 0.77
We build the to remain visually similar over time, and conversely ignoring parts of the image that are likely to change; 3) facilitating pose search as a full image may contain cast shadows (edges rotational perturbation by randomly sampling a rotation axis distribution on [−(cid:101)r,(cid:101) r]. 3)全画像としてポーズ検索を円滑に行うには、[−(cid:101)r,(cid:101) r]上の回転軸分布をランダムにサンプリングすることにより、キャストシャドウ(エッジ回転摂動)が含まれる可能性があります。
訳抜け防止モード: 時間とともに視覚的に類似し、逆に変化しそうな画像の一部を無視する; 3 ) 全画像としてポーズ探索を容易にすることで、キャストシャドウ(エッジによる回転摂動)を含むことができる。 回転軸分布を[−(cid:101)r,(cid:101) r]上でランダムにサンプリングする。
0.78
Similarly, the perturbation’s translathat do not persist with lighting changes) but small patches from the unit sphere and a rotation angle from a uniform tional magnitude is sampled within [−(cid:101)t,(cid:101) t] and its direction may be uniformly lit. 同様に、摂動のトランスラは照明の変化とともに持続しない)が、単位球面からの小さなパッチと一意な対数等級からの回転角を [−(cid:101)t,(cid:101) t] 内でサンプリングし、その方向を均一に照らしてもよい。 0.74
We match the synthetic templates to the real observations, resulting in SFRp, the point corresponding to W p in the SFR optical frame. 合成テンプレートを実際の観察値と一致させ、その結果、SFR光フレーム内のW pに対応するSFRpとなる。 0.77
We thus collect NC correspondences (W p, SFRp) to update W T(cid:100)SFR by leastwithin the local surface tangent for the first iteration (planar search), then the 3D unit sphere for subsequent refinement. これにより, nc対応 (w p, sfrp) を収集し, w t(cid:100)sfr を第1イテレーションの局所接点(平面探索)で更新し, その後の精細化のために3次元単位球面を得る。 0.76
squares transformation estimation, and further refine it over C. Virtual Template Synthesis N iter iterations. C.Virtual Template Synthesis N Iterのイテレーションで、二乗変換の推定とさらに洗練される。 0.73
We summarize our method in Alg. Algでこの方法を要約します。 0.62
1 and In the following, we consider the depot map M as a Fig. 1 と以下では、デポマップ M を図とみなす。 0.59
2 and discuss its components in the following. コンポーネントについて、以下で議論する。 0.52
textured polygon mesh. テクスチャ付きポリゴンメッシュ。 0.74
Using OpenGL, we build a rendering B. OpenGLを使ってレンダリングBを構築します。 0.84
Viewpoint Sampling environment reproducing SFR rectified stereo calibration parameters, enabling the synthesis of images similar in Pose search begins with an initial viewpoint estimate W T(cid:100)SFR, which is typically computed from the previous pose appearance to what would be captured by the real rover at arbitrary viewpoints W TV. ビューポイントサンプリング環境は、SFR補正されたステレオキャリブレーションパラメータを再現し、Pose検索に類似した画像の合成を可能にする。これは、初期の視点推定W T(cid:100)SFRから始まり、これは通常、以前のポーズの出現から任意の視点W TVで実際のローバーによってキャプチャされるものまで計算される。
訳抜け防止モード: SFR補正ステレオ校正パラメータを再生する視点サンプリング環境 詩検索で類似した画像の合成を可能にする 初期視点推定 W T(cid:100)SFR から始まり、これは通常、前のポーズの外観から何まで計算される。 実際のローバーは、任意の視点でWTVに捉えられる。
0.76
To evaluate multiple viewpoint and the rover’s VIO-derived motion since the last alignment. 最後のアライメント以来、複数の視点とローバーのVIO由来の動きを評価する。 0.70
hypotheses efficiently, we do not render full stereo images We account for uncertainty incurred by VIO by searching for a best-matching pose in the neighborhood of W T(cid:100)SFR. 効果的に仮定すると、wt(cid:100)sfr近傍のベストマッチポーズを探索することにより、vioが生み出した不確かさを考慮に入れた完全なステレオ画像をレンダリングしない。
訳抜け防止モード: 仮説の効率的化,vioによる不確実性を考慮した全ステレオ画像のレンダリングは行わない。 w t(cid:100)sfr付近で最適なポーズを求める。
0.63
Rover (e g , 5472 × 3648 ≈ 20 Mpixel) but instead square patches of side length (cid:96) centered on points of interest (e g , (cid:96) = 256, localization is largely a planar problem, and for perfectly flat Given a sampling mask (cid:99)M of the depot areas that can about 300× smaller). ローバー (例えば g , 5472 × 3648 × 20 Mpixel) しかし、側面の長さの正方形のパッチ (cid:96) は関心点 (例えば g , (cid:96) = 256) を中心としており、局所化は概ね平面的な問題であり、完全に平坦な場合、サンプリングマスク (cid:99) を約 300×小さいデポ領域のM を与えられる。 0.78
The synthesis pipeline is as follows. 合成パイプラインは以下の通りである。 0.73
terrain our search should be constrained to a planar search. 地形 我々の捜索は 平面探索に制限されるべきだ 0.77
However, as we expect substantial relief through a depot, we reliably be used for relocalization (e g , by keeping large conduct a full 6D search. しかし,デポで相当な救済が期待できるので,大容量の6Dサーチを継続することにより,再ローカライゼーション(例えば,大容量の6Dサーチ)に確実に利用できる。 0.55
We search the neighborhood of the initial pose by applying a perturbation transformation SFRTV rocks and filtering out sand), we randomly select a 3D point 摂動変換SFRTV岩を施し,砂をろ過することにより,初期ポーズの近傍を探索し,ランダムに3D点を選択する。 0.78
Real observationsto relocalizeSynthetict emplatesLeft cameraRight camera SynthetictemplatesLe ft CameraRightカメラのリアルタイム化 0.66
英語(論文から抽出)日本語訳スコア
W(cid:101)p from the vertices constituting (cid:99)M visible from W TV. w(cid:101)p (cid:99)m を構成する頂点から w tv から見える。 0.72
set (cid:99)M := M. We then project W(cid:101)p into the left virtual When the scene geometry is not expected to change, we thus synthesize a left template (cid:98)IM camera frame, yielding 2D pixel coordinates (uV L , vV L ). set (cid:99)M := M. 次に W(cid:101)p を左仮想に投影する シーン幾何学が変化しないとき、左テンプレート (cid:98)IM カメラフレームを合成し、2D ピクセル座標 (uV L , vV L ) を生成する。 0.81
We together with an associated depth map (cid:98)DM centered on (uV L , vV L ), L L . 私たちは(uV L、vV L)、L Lを中心に関連する深さマップ(cid:98)DMと一緒に。 0.79
We use the full mesh M for rendering, which contains areas that may change which pixels to keep from the synthetic template(cid:98)IM over time but can still be used for matching. レンダリングには、合成テンプレート(cid:98)IMから保持するピクセルを変更する可能性のある領域を含むフルメッシュMを使用しますが、それでもマッチングに使用できます。 0.72
We estimate ways. 私たちは方法を見積もる。 0.49
First, we render the depth map (cid:98)D(cid:99)M in two sampling mask (cid:99)M and keep all pixels of (cid:98)IM L R associated to the depth value in (cid:98)D(cid:99)M as they correspond to vertices of (cid:99)M. that have a L R Second, we identify pixels that may change locally (e g , sand) but still serve as contrasting background for features of(cid:98)IM L that do not have a depth value in (cid:98)D(cid:99)M in the foreground (e g , rock edges). まず、深さマップ(cid:98)d(cid:99)mを2つのサンプリングマスク(cid:99)mにレンダリングし、(cid:98)d(cid:99)mの深さ値に対応する(cid:98)im lrの全画素を(cid:99)mの頂点に対応するように(cid:99)mに保持する。
訳抜け防止モード: まず、深度マップ(cid:98)D(cid:99)Mを2つのサンプリングマスク(cid:99)Mでレンダリングします。 そして、(cid:98)IM L R の深さ値に関連付けられたすべてのピクセルを (cid:98)D(cid:99)M に保持します。 局所的に変化する可能性のあるピクセル(例えば、砂)を特定します。 しかし、前景の(cid:98)D(cid:99)Mに深さ値を持たない(cid:98)IM Lの機能の対照的な背景として機能します。 岩の端)。
0.82
We define those as pixels edges marking depth discontinuity in (cid:98)DM L but are beyond We synthesize the right template(cid:98)IV L . 我々はこれらを (cid:98)DM L の深さ不連続性を示すピクセルエッジとして定義するが、それ以外は正しいテンプレート (cid:98)IV L を合成する。 0.63
R by similarly generating color and depth patches from a virtual right camera. Rは同様に、仮想右カメラから色と深さのパッチを生成する。 0.74
D. Synthetic-to-Real Template Matching We now search for SFRp, the point corresponding to W p and right templates(cid:98)IV L ,(cid:98)IV in the SFR camera frame, by separately searching for left , ISFR L in the real SFR images ISFR R , L yielding SFR pixel coordinates (uSFR ), (uSFR R , vSFR R ) of L maximum normalized cross-correlation. D.synthetic-to-Real Template Matching 我々は、SFRカメラフレーム内のWpおよび右テンプレート(cid:98)IV L,(cid:98)IVに対応する点であるSFRpを、Lの最大正規化クロス相関のSFRピクセル座標(uSFR ),(uSFR R , vSFR R )を出力する実SFR画像ISFR R , L において左 , ISFR L を別々に探索することによって検索する。 0.88
We make use of the epipolar constraint between rectified stereo images to reject matches such that the vertical difference |uSFR L − uSFR R | R | ≤ u, exceeds a chosen threshold u. 補正ステレオ画像間のエピポーラ制約を利用して、垂直差 |uSFR L − uSFR R | R | ≤ .u が選択しきい値 .u を超えるような一致を拒否する。 0.79
If |uSFR L − uSFR we calculate SFRp using the average vertical coordinate 0.5 ∗ (uSFR L − vSFR R ) and horizontal disparity (vSFR L + uSFR R ). uSFR L − uSFR の場合、平均垂直座標 0.5 (uSFR L − vSFR R ) と水平差 (vSFR L + uSFR R ) を用いて SFRp を計算する。 0.88
two strategies to facilitate synthetic-to-real We exploit tions of synthetic templates ((cid:98)IV L ,(cid:98)IV matching. 合成から実への変換を容易にする2つの戦略は、合成テンプレート((cid:98)iv l ,(cid:98)ivマッチングの割当を利用する。 0.56
First, we search for matches using different variaR ): size (e g , (cid:96)/2-length sub-template) and derivative order (e g , direct grayscale, or processed through Sobel, Laplacian operators). まず, サイズ (e g , (cid:96)/2-length sub-template) と微分次数 (e g , direct grayscale, またはSobel, Laplacian operator) を用いて処理する。 0.69
Smaller templates are easier to match across larger viewpoint differences at the cost of more false positives to filter out, while differentiating templates partially mitigates the effects templates ((cid:98)IV L ,(cid:98)IV of lighting differences. より小さなテンプレートは、より偽陽性のコストでより大きな視点差にマッチしやすく、一方、テンプレートの差分は(cid:98)IV L ,(cid:98)IV の影響を部分的に緩和する。 0.70
Second, rather than searching for , ISFR R ) in the full SFR images (ISFR R ), we the pose uncertainty(cid:101) t,(cid:101)r and perform the template search on L compute bounds on their possible pixel coordinates based on these sub-images (e g , 800×800 patch within 5472×3648). 第2に、全SFR画像(ISFR R )中の , ISFR R ) を探索する代わりに、ポーズの不確実性(cid:101)t,(cid:101) r を用いて、これらのサブイメージ(5472×3648 内の800×800パッチなど)に基づいて、L 演算座標上のテンプレート探索を行う。 0.80
E. Pose Update We repeat the steps described in Sections III-B to IIID until reaching a target number NC of world-camera point correspondence candidates (W p, SFRp) and estimate a transformation using the Umeyama algorithm [40] and RANSAC for outlier rejection [11] within the Point Cloud Library [33]. E. Pose Update 私たちは,世界カメラポイント対応候補(Wp,SFRp)の目標数NCに達するまで,III-BからIIIDまでのステップを繰り返して,ポイントクラウドライブラリ[33]内の外れ値拒否のために,梅山アルゴリズム[40]とRANSACを用いて変換を推定する。 0.79
If successful, we set the resulting maximuminlier transformation as new pose estimate W T(cid:100)SFR and repeat the process for N iter iterations or until the pose update converges within a chosen threshold (e g , 1 mm). 得られた最大値変換を、新しいポーズ推定 W T (cid:100)SFR として設定し、N 反復の繰り返し、あるいはポーズ更新が選択されたしきい値 (eg , 1 mm) に収束するまで繰り返す。 0.78
We propose additional mechanisms to facilitate the pose search. ポーズ探索を容易にするための追加機構を提案する。 0.64
, vSFR L When a transformation cannot be estimated from the correspondence candidates collected at this iteration: • STALL: get new correspondences from the same pose • RESEED: apply a random perturbation to the current pose before collecting new correspondences The STALL procedure is well suited when we already have at least one successful iteration, i.e., the current pose estimate is already close to the real pose. , vSFR L このイテレーションで収集された対応候補から変換を見積もることができない場合: • ストール: 同じポーズから新しい対応を得る • reseed: 新しい対応を収集する前に現在のポーズにランダムな摂動を適用する ストールプロシージャは、少なくとも1つの成功したイテレーション、すなわち現在のポーズ推定がすでに実際のポーズに近い場合に適している。 0.81
In contrast, RESEED lets us evaluate multiple guesses within a potentially large initial uncertainty range (e g , 50 cm) while maintaining smaller synthetic viewpoint variations (e g , 20 cm) for local search. 対照的に、RESEEDは、ローカル検索のための小さな合成視点のバリエーション(例えば、20 cm)を維持しながら、潜在的な大きな初期不確実性の範囲(例えば、50 cm)内の複数の推測を評価することができます。 0.67
When a transformation is successfully estimated: following(cid:101)t := γ(cid:101)t,(cid:101) r := γ(cid:101)r, with γ ∈ [0, 1] • ANNEAL: decrease synthetic viewpoint randomization • DISTRIBUTE: randomize synthetic viewpoints around multiple poses rather than the current estimate only • REUSE: carry over a set number of correspondences (inliers) throughout successful iterations The γ parameter facilitates convergence by reducing synthetic viewpoint randomization over time, e g , stop randomizing (γ = 0), halve every iteration (γ = 0.5), keep constant (γ = 1). When a transformation is successfully estimated: following(cid:101)t := γ(cid:101)t,(cid:101) r := γ(cid:101)r, with γ ∈ [0, 1] • ANNEAL: decrease synthetic viewpoint randomization • DISTRIBUTE: randomize synthetic viewpoints around multiple poses rather than the current estimate only • REUSE: carry over a set number of correspondences (inliers) throughout successful iterations The γ parameter facilitates convergence by reducing synthetic viewpoint randomization over time, e g , stop randomizing (γ = 0), halve every iteration (γ = 0.5), keep constant (γ = 1). 0.90
In DISTRIBUTE, rather than focusing viewpoint synthesis around the maximum-inlier transformation from RANSAC, we spread it around the best pose candidates with frequency weighed by their inlier count (e g , 3 candidates with 10, 15, 25 inliers, would have a 20, 30, 50 % pick rate, respectively) to avoid local minima. ディストリビュートでは,RANSACからの最大イリヤ変換を中心に視点合成に焦点を当てるのではなく,各イリヤ数(例えば,10,15,25イリヤがそれぞれ20,30,50 %のピックレートを持つ3つの候補)によって測定された周波数のベストポーズ候補に展開し,局所最小化を回避する。 0.71
In REUSE, we do not restart the world-camera point correspondence search from scratch every time but instead keep a set number inliers from the past iteration (e g , 50 %). REUSEでは、毎回ゼロからワールドカメラのポイント対応検索を再開するのではなく、過去のイテレーション(例:50%)からセットされた番号インリエメントを保持します。 0.75
This helps stabilize the pose search and avoid large variations across iterations. これによりポーズ検索が安定し、イテレーション全体の大きなバリエーションを避けることができる。 0.56
Finally, we limit the number of times STALL and RESEED can be performed consecutively and return a failure code if reached. 最後に、STALLとRESEEDが連続して実行できる回数を制限し、到達すれば障害コードを返します。 0.67
IV. DATASET IV。 データセット 0.55
A11 A12 A10 A11 A12 A10 0.78
A13 B13 B12 A13 B13 B12 0.78
B11 A09 A08 B11 A09 A08 0.78
A07 TA B14 A07 TA B14 0.81
A14 B15 A15 B01 A01 A14 B15 A15 B01 A01 0.72
B02 TB B10 B02 TB B10 0.81
B09 B08 B07 B09 B08 B07 0.78
(a) Flagstone testbed. (a)フラッグストーンテストベッド。 0.74
A06 B06 (b) Camera pose grid around tubes TA, TB. A06 B06 (b) 管TA、TBのまわりのカメラのポーズの格子。 0.70
6 m B03 B04 6m B03 B04 0.78
B05 A02 A05 B05 A02 A05 0.78
A03 A04 (c) Sample images on CFA 6 rocks (left) and CFA 2 pebbles (right). A03 A04 (c) CFA6岩(左)とCFA2小石(右)のサンプル画像。 0.74
Fig. 3. Outdoor dataset: (a) testbed, (b) capture grid, (c) sample images. フィギュア。 3. 屋外データセット: (a)テストベッド、(b)キャプチャグリッド、(c)サンプルイメージ。 0.69
To evaluate the performance of our proposed method towards mission planning, we collect an outdoor dataset 提案手法のミッション計画に対する性能を評価するために,屋外データセットを収集する。 0.83
英語(論文から抽出)日本語訳スコア
capturing representative conditions we expect to face on Mars. 火星で直面するであろう 代表的条件を捉えます 0.72
In a preliminary study [31], we showed on an indoor dataset that lighting changes and lack of consistent features throughout were a major challenge for rover localization. 予備調査[31]では、屋内データセットで、照明の変化と一貫した機能の欠如がローバーのローカリゼーションの大きな課題であることを示しました。 0.68
We investigate these problems further by collecting a new dataset, outdoor, enabling: 1) natural light and shadows from the sun that change continuously; 2) diverse, representative terrains, based on discussions with Mars geologists on where sample tubes could be dropped; 3) a large workspace to evaluate different depot imaging strategies as well as in-depot navigation during tube recovery (e g , how far SFR can deviate from areas imaged by Perseverance). 1) 連続的に変化する太陽からの自然光と影, 2) サンプルチューブを落とすことができる火星地質学者との議論に基づいて, 多様な代表的な地形, 3) 異なるデポイメージング戦略を評価するための大きなワークスペース, チューブ回収時のデポ内ナビゲーション(例えば, sfrがパーセマンスで撮影された領域からどこまで逸脱できるか)。
訳抜け防止モード: 自然光を実現し、屋外に新しいデータセットを収集することで、これらの問題をさらに調査します。 そして絶えず変化する太陽からの影; 2 ) 多様で、代表的な地形。 サンプルチューブをドロップできる場所に関する火星の地質学者との議論に基づいて; 3 ) 異なるデポイメージング戦略を評価するための大きなワークスペース。 忍耐力によってイメージされる区域からSFRがいかに逸脱できるか)。
0.79
We construct a camera acquisition setup for outdoor use consisting of four FLIR BlackFly S cameras (5472 × 3648, color, 77° field of view) arranged as two stereo pairs of baseline 20 and 40 cm, representative of the Perseverance rover’s optics [22]. 4台のFLIR BlackFly Sカメラ(5472 × 3648, 色, 77° 視野)をベースライン20cmと40cmの2つのステレオペアとして配置し、Perseveranceローバーの光学系を代表した屋外用カメラ取得セットアップを構築しています[22]。 0.81
The cameras are covered by an aluminum plate serving as heat shield for extended use under sunlight and rigidly linked to a frame carrying motion capture (MoCap) markers for pose ground-truthing using 10 Vicon T-160 cameras (see Fig 3a). カメラは、日光の下での長期使用のためのヒートシールドとして機能するアルミニウム板で覆われ、10台のビコンt-160カメラを用いてポーズ用フレーム搬送モーションキャプチャ(mocap)マーカーに厳密に連結される(図3a参照)。 0.72
The dataset captures the following: • 3 terrain types (see Figs. データセットは以下をキャプチャする。 • 3つの地形タイプ(fig参照)。 0.72
3a and 3c): – “Flagstone”: broken stone slabs covered with a thin layer of sand similarly to fractured bedrock on Mars. 3aと3c) – フラグストーン(Flagstone): 火星の岩盤と同様に薄い砂の層で覆われた砕石板。 0.79
– “CFA6”: a rock distribution of cumulative fractional area (CFA – a measure of rock density [15]) equal to 6 %, the smallest rocks still visible from orbit to guide the choice of depot location. – "CFA6":累積分数領域の岩石分布(CFA – 岩密度の測定値[15])は、軌道からまだ見える最小の岩石で、デポの位置の選択を導く。
訳抜け防止モード: –「CFA6」 : 累積分数領域(CFA – 岩密度の測定値[15])の岩石分布が6 %に等しい。 軌道からまだ見える最小の岩 ターミナルの場所の選択を導くため。
0.76
Rocks encountered in practice would only be this big or smaller. 実際に遭遇する岩は、それほど大きくも小さくもありません。 0.54
– “CFA2”: small rocks only visible from surface imagery (not orbit), here pebbles on dust and sand. –「CFA2」:表面の画像からのみ見える小さな岩(軌道ではなく)、ここでほこりや砂の上に小石。 0.81
• 3 image capture times: “am” (9 am to 10 am), “nn” (noon to 1 pm), “pm” (3 pm to 4 pm) • 2 sample tubes with variable visibility: unoccluded or in a crack between slabs (flagstone), unoccluded or 25 % covered by sand (CFA 2), 50 or 75 % occluded (CFA6) • 15 camera tripod positions along two circles, each centered on a sample tube (30 stops total, see Fig 3b) • 2 camera orientations at each stop (look at each tube) • 4 cameras: 2 stereo pairs of baseline 20 and 40 cm Overall, our outdoor dataset comprises 540 capture configurations, totalling 2160 images collected over the course of 3 days, annotated with reference poses from MoCap. • 3 image capture times: “am” (9 am to 10 am), “nn” (noon to 1 pm), “pm” (3 pm to 4 pm) • 2 sample tubes with variable visibility: unoccluded or in a crack between slabs (flagstone), unoccluded or 25 % covered by sand (CFA 2), 50 or 75 % occluded (CFA6) • 15 camera tripod positions along two circles, each centered on a sample tube (30 stops total, see Fig 3b) • 2 camera orientations at each stop (look at each tube) • 4 cameras: 2 stereo pairs of baseline 20 and 40 cm Overall, our outdoor dataset comprises 540 capture configurations, totalling 2160 images collected over the course of 3 days, annotated with reference poses from MoCap. 0.86
V. EXPERIMENTS In this Section, we examine the performance of our method on different types of terrains and lighting conditions, then assess different depot mapping and navigation strategies to make recommendations for Mars Sample Return planning. V.実験 本節では, 異なる地形や照明条件における手法の性能について検討し, 火星試料回収計画の推薦を行うために, 異なるデポマッピングとナビゲーション戦略について検討する。 0.76
A. Relocalization Performance The first step consists in building a map of the depot. a. 再ローカライズ性能 最初のステップは、デポの地図を構築することである。 0.68
For each terrain and capture time (9 combinations total), we build a depot map from 60 viewpoints captured with the 40 cm-baseline stereo cameras, representative of those Perseverance would use for depot imaging. 各地形と撮影時間(合計9つの組み合わせ)について、40cmベースのステレオカメラで捉えた60の視点からデポマップを構築し、デポイメージングに使用するパーセマンスを代表します。 0.73
Using the Agisoft agisoft の使用 0.80
Metashape software, we generate a textured mesh M of the full scene. メタシェープソフトウェアでは,全シーンのテクスチャメッシュMを生成する。 0.75
For Flagstone and CFA6 (possible scene perturbations, e g , from Martian wind), we manually process in the sampling mask (cid:99)M. For CFA2 (undisturbed scene), we M with the Blender 3D graphics software to only keep rocks keep the full mesh and set (cid:99)M := M. We depict the resulting meshes and masks in Figs. フラッグストーンとcfa6(火星風による可能性のあるシーンの摂動)については、サンプルマスク(cid:99)mで手作業で処理し、cfa2(unisturbed scene)では、ミキサー3dグラフィックスソフトウェアを使って、岩石がメッシュとセット(cid:99)m :=mのみを保持するようにしました。
訳抜け防止モード: FlagstoneとCFA6の場合(シーンの摂動など)。 火星風から)、私達はサンプル マスク(cid:99)Mで手動で処理します。 私達はBlender 3Dグラフィック ソフトウェアと岩を保ちます完全な網およびセットを保ちますだけ保つためにM。 cid:99)M : = M。フィグスで得られたメッシュとマスクを描きます。
0.75
4b to 4d. We then use this map to relocalize images taken at different times of the day, see Fig. 4bから4d。 次に、このマップを使用して、異なる時間帯に撮影された画像を再ローカライズします。 0.71
4a. Viewpoints to relocalize (green arrows) overlap with mapping images (blue) when they are from the same capture time, otherwise vary slightly over different capture sessions. 4a。 同じキャプチャタイムのときに(緑色の矢印)再ローカライズするビューポイントとマッピングイメージ(青)が重なり、それ以外の場合は異なるキャプチャセッションでわずかに異なります。 0.77
We evaluate our method by starting away from the groundtruth pose W TSFR, applying a random transformation of 10-to-20 cm translation and 1.5° rotation components (see pose W T(cid:100)SFR as initial guess, (cid:101)t0 = 20 cm and (cid:101)r0 = 1.5° Section III-A). 本手法は,10~20cmの翻訳と1.5°回転成分のランダムな変換を施し,接地姿勢wtsfrから遠ざかって評価する(初期推定はposing w t(cid:100)sfr, (cid:101)t0 = 20 cm, (cid:101)r0 = 1.5° section iii-a)。 0.74
We run VTSM using the resulting perturbed initial search bounds with decay parameter γ = 0.5, virtual template sizes 128 and 256, and epipolar constraint threshold u = 8 pixels. VTSM は減衰パラメータ γ = 0.5,仮想テンプレートサイズ 18 および 256,およびエピポーラ制約しきい値 u = 8 ピクセルによる摂動初期探索境界を用いて実行している。 0.84
A run is considered successful if NC = 100 correspondences are found and the pose is successfully updated for N iter = 5 iterations. NC = 100の対応が見つかれば、実行は成功し、ポーズはNイテレータ = 5の繰り返しに対して正常に更新される。 0.71
The transformation estimation error is defined as the difference between ground-truth pose and final estimate, SFRT(cid:100)SFR = (W TSFR)−1 · W T(cid:100)SFR. 変換推定誤差は、SFRT(cid:100)SFR = (W TSFR)−1 · W T(cid:100)SFRの接地真理ポーズと最終推定の違いとして定義される。 0.80
We report in Fig 4e the VTSM relocalization success rate and average error on each terrain type, sorted by time difference between mapping and relocalization: 0 h (same time for both), 3 h (e g , noon relocalization vs morning map), 6 h (e g , afternoon relocalization vs morning map). 我々は、図4eでVTSM再局在化の成功率と各地形タイプの平均誤差を、マッピングと再局在化の間の時間差で分類した:0 h(両方の同じ時間)、3 h(例g、正午再局在化対朝マップ)、6 h(例g、午後再局在化対朝マップ)。 0.75
We also depict Flagstone detailed results in Fig 4f as 2D plots where each point’s coordinates represent the distance (linear and angular) between the viewpoint to relocalize and the nearest viewpoint used to map the depot, and its color the relocalization accuracy. また,fig 4f におけるフラッグストーンの詳細な結果を2次元のプロットとして表現し,各点の座標が再局在する視点と最寄りの視点の間の距離(直線と角)を表し,その色が再局在の精度を示す。 0.79
As a baseline to our method, we also report these metrics when performing localization by matching local features between the same relocalization and nearest mapping viewpoints. また,本手法のベースラインとして,同じ再局在化と最寄りのマッピング視点の局所特徴をマッチングすることにより,局所化を行う際の指標を報告する。 0.62
We did so using the LIBVISO2 package [12], modified to use SIFT features for better robustness in exchange for longer computation time. 私たちは、長い計算時間と引き換えに、SIFT機能を使用するように修正されたLIBVISO2パッケージ[12]を使用しました。 0.65
We observe the following. First, while SIFT-based localization is generally more accurate than VTSM when it successfully estimates a transformation, this success rate decreases significantly with lighting changes across all terrains. 以下を観察する。 まず、SIFTベースのローカリゼーションはVTSMよりも一般的に正確ですが、この成功率はすべての地形の照明変化によって大幅に減少します。 0.65
Notably, it completely drops to 0 % with 6 h of natural sunlight difference while VTSM achieves 100 % across all configurations. 特に、VTSMは全構成で100%を達成する一方、自然光の6時間差で0%に完全に低下する。 0.79
We note that relocalization errors are largest on CFA6, possibly due to the small size of rock features together with their sparsity in the sampling mask (see Fig 4c), suggesting that it may be preferrable to build the depot on large-enough rocks if the scene is expected to be affected by Martian wind (Flagstone), or to find areas where sand will remain undisturbed (CFA2). 我々は、再局在化エラーがCFA6で最大であることに注意し、おそらく、サンプリングマスク(図4cを参照)の間隔と共に岩石の特徴の小さなサイズのために、シーンが火星風(フラグストーン)の影響を受けている場合、または砂が乱れることのない領域を見つけるために、大規模な岩の上にデポを構築することが好ましいことを示唆している(CFA2)。 0.69
Second, Fig 4f illustrates that VTSM is generally successful throughout the assessed range of 40 cm and 20° between test and mapping viewpoints. 第2に、図4fは、VTSMがテスト視点とマッピング視点の間の40cmから20°の範囲で一般的に成功していることを示している。 0.58
This prompts us to consider larger ranges in the next sections. これにより、次のセクションでより大きな範囲を考慮するようになります。 0.60
Finally, we report an average run time of 3 min 55 s on a 4.5 GHz CPU-only, single-threaded implementation compatible with space-rated hardware. 最後に, 4.5GHz の CPU 専用シングルスレッド実装において, 3 min 55 秒の平均実行時間について報告する。 0.75
英語(論文から抽出)日本語訳スコア
For the sake of completeness, we considered alternative methods that may not be compatible with space-rated hardware, such as neural-network-based features [37], that we observed generally performing worse than SIFT on Marslike terrains under lighting changes [31]. 完全性のために、ニューラルネットワークに基づく機能[37]のような、空間的に評価されたハードウェアと互換性のない代替手法を検討し、照明の変化[31]下で火星のような地形でシフトよりも一般的に性能が悪くなることを観測した。 0.55
We also implemented the image transform of [9] as a preprocessing step and observed that the added noise, as reported by [29], particularly hindered subsequent local feature matching on our relatively barren terrains. また, [9] の画像変換を前処理ステップとして実装し, [29] で報告された付加ノイズが, 比較的不毛な地形の局所的特徴マッチングを特に妨げていることを観測した。 0.81
While this may be alleviated with additional training, it remains unclear whether the single Planckian source assumption would hold at tube pickup time on Mars. これは追加の訓練で緩和されるかもしれないが、火星のチューブピックアップ時に1つのプランク語源が保持されるかどうかは不明である。 0.57
Finally, we trained the benchmark-leading [35] image retrieval technique of [39] on our dataset. 最後に,データセット上で [39] のベンチマークリーディング [35] 画像検索技術をトレーニングした。 0.75
While image retrieval itself aims at returning the nearest pose in a predefined database rather than the actual rover pose itself, we could envision using such a system to seed VTSM with a coarse estimate for further refinement. 画像検索自体は、実際のローバーのポーズではなく、事前定義されたデータベースに最も近いポーズを返すことを目的としているが、そのようなシステムを用いてVTSMを粗い推定値でシードし、さらなる改善を期待できる。 0.53
However, we again observed the method to fail at retrieving such a pose, which may be due to the DenseVLAD features employed being derived from SIFT, therefore subject to similar limitations. しかし, SIFT から派生した DenseVLAD の特徴に起因し, 同様の制約を受けるため, このようなポーズの回収に失敗する手法を再び見いだした。 0.65
B. Parameter Sensitivity Analysis While the 40 cm-baseline stereo cameras are representative of those Perseverance will use for depot mapping, the SFR design may be constrained by further size and payload requirements. B. パラメータ感度分析 40 cm のステレオカメラはデポマッピングに使用されるパーセヴァンスを代表しているが、SFRの設計はさらなるサイズとペイロードの要求によって制約される可能性がある。 0.65
Keeping the depot maps built from the 40 cmbaseline stereo images, we now relocalize images taken by other cameras in a 20 cm-baseline configuration. 40cmのステレオ画像から作られたデポマップを保存し、他のカメラが撮影した画像を20cmのベースライン構成で再ローカライズする。 0.63
We report the resulting errors on all three terrains over 6 h time difference between mapping and relocalization in Fig 5a. 図5aのマッピングと再局在化の6時間差で得られた3つの地形の誤差を報告します。 0.74
We observe that while the smaller stereo baseline results in higher relocalization errors, these are expected as the theoretical depth uncertainty itself also increases by 6.5-to26.0 mm for a 1 pixel disparity uncertainty 3-to-6 m ahead of the camera. ステレオベースラインが小さくなると再局在誤差が高くなるが、これは理論的な深さの不確実性自体がカメラの3~6m前の1ピクセル不均一性に対して6.5~26.0mm増加することが予想される。 0.58
As success rates remain similar, we infer here that VTSM itself is robust to camera changes, with its accuracy contingent on that permitted by the chosen setup. 成功率も類似しているため、VTSM自体がカメラ変更に対して堅牢であり、その精度は選択された設定によって許容されるものであると推測する。 0.67
We now consider an alternative scenario where the rover’s position uncertainty suddenly grows beyond the previous bility is to simply increase the randomization range(cid:101)t0 when 20 cm to 50 cm (e g , slippage). 我々は、20cmから50cm(eg, slippage)のランダム化範囲(cid:101)t0を単純に増やすことで、ローバーの位置不確実性が以前の能力を超えて突然増大する別のシナリオを考える。 0.75
To address this, one possigenerating synthetic viewpoints to 50 cm around the current pose guess W T(cid:100)SFR. これを解決するために、合成的視点を現在のポーズ推定WT(cid:100)SFRの周囲に50cmまで生成する。 0.67
However, the increased search range also requires more attempts to sample poses closer to the real one, while also generating more false positives. しかし、検索範囲の増大は、実際のものに近いポーズをサンプリングし、さらに偽陽性を発生させる必要がある。 0.62
Furthermore, template matching takes longer as the increased uncertainty only lets us restrict the search to about 2000× 2000 patches within the real images instead of 800 × 800 as described in Section III-D. さらに, テンプレートマッチングは, 不確実性の増加によって, 第III-D節で記述した800×800ではなく, 2000×2000パッチの実際の画像への探索を制限できるため, 時間を要する。 0.73
Instead, we propose to keep VTSM virtual viewpoint randomization at 20 cm, but around multiple pose seeds randomly sampled within the 50 cm uncertainty range. 代わりに、VTSM仮想視点ランダム化を20cmに抑えることを提案するが、50cmの不確実範囲内で複数のポーズ種をランダムにサンプリングする。 0.73
We choose to run one VTSM iteration over 100 such pose seeds and select the one resulting in the maximum number of correspondence inliers to run the rest of the algorithm on. 私たちは100種以上のVTSMイテレーションを実行し、アルゴリズムの残りの部分を実行するために最大数の対応インプライヤを生成するものを選択します。 0.75
Adding these results to Fig 5a, we observe that success rates remain at 100 % and that relocalization errors are slightly lower, which may stem from the search over multiple pose これらの結果をfig 5aに加え,成功率は100%であり,再ローカライズ誤差はやや低く,複数ポーズでの探索に起因していると考えられる。 0.80
(a) Mapping and test viewpoints. (a)マッピングとテストの視点。 0.77
(b) Flagstone mesh M (green: mask (cid:99)M). (b)フラッグストーンメッシュM(緑:マスク(cid:99)M)。 0.82
(d) CFA2 mesh M (no mask (cid:99)M). (d)CFA2メッシュM(マスクなし (cid:99)M)。 0.81
(c) CFA6 mesh M (green: mask (cid:99)M). (c) CFA6の網M (緑:マスク(cid:99)M)。 0.81
CFA2 CFA6 Flagstone Terrain Time diff. CFA2 CFA6 Flagstone Terrain Time diff 0.91
[h] 3 3 3 0 6 0 6 0 Success [%] 98.9 100.0 70.7 52.9 0.0 66.7 0.0 98.9 T F 10.7 N/A Error [mm] 0.8 22.8 N/A 0.4 6.5 N/A 0.6 I S Success [%] 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 M Error (init) [mm] 148.1 152.3 149.2 149.7 147.9 150.0 149.3 150.5 148.0 S T 76.6 Error (end) [mm] 51.2 V (e) Localization success rate and average error on all terrain-time differences. [h] 3 3 3 0 6 0 0 Success [%] 98.9 100.0 70.7 52.9 0.0 66.7 0.0 98.9 T F 10.7 N/A Error [mm] 0.8 22.8 N/A 0.4 6.5 N/A 0.6 I S Success [%] 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 M Error (init) [mm] 148.1 152.3 149.2 147.9 150.0 149.3 150.5 148.0 S T 76.6 Error (end) [mm] 51.2 V (e) ローカライゼーションの成功率と全地形における平均誤差 0.62
6 h difference 0 h difference 3 h difference 6h差 0hの差 3h差 0.75
51.1 52.8 56.0 51.1 52.8 56.0 0.59
50.2 6 0.0 50.2 6 0.0 0.65
65.4 75.9 98.5 65.4 75.9 98.5 0.59
98.9 %, 0.8 mm 66.7 %, 22.8 mm 98.9 %、0.8 mm 66.7 %、22.8 mm 0.66
0.0 %, N/A 0.0 %, N/A 0.74
T F I S M S T V T F I S M S T V 0.85
100 %, 51.2 mm 100 %, 56.0 mm 100.0 %, 50.2 mm (f) Transformation estimation success rate and average error on flagstone depot across 0, 3, 6 h capture time and lighting differences. 100 %, 51.2 mm 100 %, 56.0 mm 100.0 %, 50.2 mm (f) 0, 3, 6 h の捕捉時間と照度差のフラグストーンデポにおける変形推定成功率と平均誤差。 0.89
Note: SIFT-0 h amounts to estimating the (zero) transformation between the same images and VTSM0 h illustrates the effects of 10-to-20 cm, 0-to-1.5° pose randomization alone. 注:SIFT-0 h は同じ画像と VTSM0 h の間の (ゼロ) 変換を推定すると、10から20cm、0から1.5° のランダム化のみの効果が示される。 0.60
3 and 6 h plots include pose variations across different depot traverses. 3および6hのプロットには、異なるデポトラバースのポーズのバリエーションが含まれている。 0.50
Fig. 4. VTSM evaluation on all terrain-time differences. フィギュア。 4. すべての地形時間差に対するVTSM評価。 0.66
seeds within a 50 cm range being a better initializer than relocalizing from a single one within 20 cm. 50cmの範囲内の種子は、20cm以内の1種から再局在するよりも、より優れた初期化剤である。 0.58
Fig 5b depicts real and synthetic images from VTSM showing successful matching on all terrains despite strong lighting changes between mapping and relocalization. 図5bは、マッピングと再局在化の間の強い照明変化にもかかわらず、すべての地形でマッチングに成功しているVTSMの現実および合成画像を示しています。 0.59
We report an average 1 h 4 min run time per relocalization attempt with 50 cm uncertainty, including 1 h to evaluate the 100 pose seeds, which could be improved using other search schemes or early stop criteria (e g , minimum inlier ratio). 我々は、他の検索スキームまたは早期停止基準(例えば、最小インリエ率)を使用して改善することができる100ポーズ種子を評価するための1 hを含む50 cmの不確実性で再局在化の試みあたり平均1 h 4分実行時間を報告します。 0.79
C. Depot Imaging Strategy and Relocalization Range Finally, we consider the case where SFR deviates from the path Perseverance took when imaging the depot. C. Depot Imaging Strategy と再局在範囲 最後に,SFR がdepot Imaging において Perseverance の経路から逸脱した症例について考察する。 0.77
We 3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints0.00.10.20 .3[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1mfailur e0.00.10.20.3[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1mfailur e0.00.10.20.30.4[m] to nearest mapping image0.02.55.07.510. 012.515.017.520.0[deg] to nearest mapping imagefailure0.000.05 0.100.150.20[m] to nearest mapping image0.00.51.01.52.0 2.5[deg] to nearest mapping imageerror0.1merror& gt;0.1m0.00.10.20.30.4[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1merror& gt;0.1m0.00.10.20.3[m] to nearest mapping image0.02.55.07.510. 012.515.017.520.0[deg] to nearest mapping imageerror0.1merror& gt;0.1m 私たち 3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints0.00.10.20 .3[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1mfailur e0.00.10.20.3[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1mfailur e0.00.10.20.30.4[m] to nearest mapping image0.02.55.07.510. 012.515.017.520.0[deg] to nearest mapping imagefailure0.000.05 0.100.150.20[m] to nearest mapping image0.00.51.01.52.0 2.5[deg] to nearest mapping imageerror0.1merror& gt;0.1m0.00.10.20.30.4[m] to nearest mapping image05101520[deg] to nearest mapping imageerror0.1merror& gt;0.1m0.00.10.20.3[m] to nearest mapping image0.02.55.07.510. 012.515.017.520.0[deg] to nearest mapping imageerror0.1merror& gt;0.1m 0.56
英語(論文から抽出)日本語訳スコア
bl bl bl CFA6-6 h bl bl bl CFA6-6 h 0.78
50cm ref Flagstone-6 h ref 50cm ref Flagstone-6 h ref 0.83
Terrain-time 50cm Configuration Success [%] 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 M Error (init) [mm] 149.2 146.2 363.8 150.0 153.7 379.2 148.0 146.5 377.1 S T 62.2 Error (end) [mm] 50.2 V (a) VTSM results on different configurations. 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 m error (init) [mm] 149.2 146.2 363.8 150.0 153.7 379.2 148.0 146.5 377.1 s t 62.2 error (end) [mm] 50.2 v (a) vtsm results on different configurations 0.69
Reference results ref: 40 cm relocalization baseline, 10-to-20 cm initial randomization. 基準値: 40cmリローカライズベースライン、10~20cm初期ランダム化。 0.70
Two variations: bl: 20 cm relocalization baseline, 50cm: 25-to-50 cm initial randomization. 2つのバリエーション: bl: 20 cm リローカライズベースライン、50 cm: 25-50 cm初期ランダム化。 0.73
Synthetic, final Synthetic, random Real, relocalize 合成、最終 合成、ランダムリアル、再ローカライズ 0.67
98.5 123.0 83.5 98.5 123.0 83.5 0.47
50cm ref CFA2-6 h 50cm ref CFA2-6 h 0.74
58.2 76.6 84.6 58.2 76.6 84.6 0.59
49.3 e n o t s g a l F 49.3 e n o t s g a l F 0.72
6 A F C 2 A F C 6 A F C 2 A F C 0.85
(b) Afternoon relocalization vs morning map with 50 cm randomization. (b) 午後の再局在化対50cmランダム化の朝の地図。 0.72
Note the real image strong shadows, which could occur on Mars (rover shadow). 火星で起こりうる強い影(ローバーシャドウ)の本当のイメージに注意してください。 0.70
Fig. 5. Results on alternative relocalization configurations. フィギュア。 5. 代替再ローカライズ構成の結果。 0.67
do so in two ways. 2つの方法でそうします 0.71
First, we consider two alternative depot imaging trajectories for Perseverance (see Fig 6a): a wave trajectory where the rover navigates between two consecutive sample tubes imaging both, and a forward trajectory where the rover only looks ahead while driving. まず、Perseveranceのための2つの代替デポイメージング軌道(図6a参照)を検討します。ローバーが2つの連続したサンプルチューブ間をナビゲートする波の軌跡と、ローバーが運転中にのみ先を向いている前方の軌跡です。 0.64
This lets us evaluate relocalization from viewpoints further from the mapping set. これにより、マッピングセットからさらに視点から再ローカライズを評価することができる。 0.58
Second, we sub-sample each depot imaging set by only using viewpoints every x m, which lets us evaluate Perseverance imaging density requirements to enable SFR relocalization. 次に、Xm毎の視点のみを用いて各デポイメージングセットをサブサンプリングし、パースペランスイメージング密度要件を評価し、SFR再局在化を可能にする。 0.65
We observe the following. First, our meshing software starts failing to align input images when the imaging step size exceeds 1 m due to insufficient overlap between viewpoints. 以下を観察する。 第一に、我々のメッシュソフトウェアは、視点間の重なりが不十分なため、撮像ステップサイズが1mを超えると入力画像の整列に失敗し始める。
訳抜け防止モード: 以下を観察する。 まず メッシュソフトウェアが 視点間の重なりが不十分なため、撮像ステップサイズが1mを超えると入力画像の整列に失敗する。
0.68
We depict in Fig 6b the forward path with step size 1.9 m, leaving only the first and last viewpoints of the trajectory as mapping images, which the software could not be align. 図6bでは、ステップサイズ1.9mのフォワードパスを描写し、ソフトウェアが整列できないマッピングイメージとして軌道の最初の視点と最後の視点のみを残します。 0.78
We thus obtained a mesh from only the first viewpoint’s stereo pair for Flagstone and CFA6, and from the final viewpoint for CFA2. そこで我々はフラッグストーンとCFA6の第一視点のステレオ対とCFA2の最終的な視点からメッシュを得た。 0.72
The latter being in the middle of the depot resulted in only half of it being 3D-modeled. 後者は補給所の中央にあり、その半分は3Dモデルであった。 0.65
While this issue may be mitigated using further image alignment techniques, we are also interested in evaluating our method against less accurate meshes. この問題は、さらなる画像アライメント技術によって緩和されるかもしれないが、より正確なメッシュに対する評価にも関心がある。 0.60
Fig 6c illustrates that VTSM relocalization is still successful up to the 6 m away from the nearest mapping image on Flagstone and CFA6, with errors mostly below 10 cm up to 3 m away. 図6cは、VTSM再局在がフラッグストーンとCFA6の最も近いマッピング画像から6mの距離までまだ成功しており、誤差は10cmから3m以下であることを示している。 0.76
Failure cases on CFA2 appear, expectedly, when attempting to relocalize images of the depot half that could not be mapped. CFA2の失敗事例は、マッピングできないデポ半分の画像を再ローカライズしようとすると、予想通り現れます。 0.65
We report results on all configurations in Fig 6d, observing that relocalization accuracy drops after 1 m depot imaging step in most cases. fig6dにおける全構成について報告し,1mデポ撮像ステップ後に再局在精度が低下することを確認した。 0.66
The problem of retrieving sample tubes on Mars years after they have been dropped by another rover is a difficult 火星のサンプルチューブを別の探査機に落とされた後、何年にもわたって回収するという問題は難しい
訳抜け防止モード: 火星のサンプルチューブを別の探査機に落とされた後何年かで回収する問題 難しいことです
0.76
VI. DISCUSSION VI。 ディスカシジョン 0.70
(a) Alternative imaging trajectories: wave (left) and forward (right). (a)代わりのイメージ投射の軌道:波(左)および前方(右)。 0.82
(b) Forward trajectory with step size 6 (1.9 m step). (b) ステップサイズ6 (1.9 mのステップ)の前方の軌跡。 0.81
Red arrows indicate mapping images that were not successfully aligned with the others (blue arrows) during mesh reconstruction. 赤い矢印は、メッシュ再構築時に他とうまく一致しなかったマッピング画像(青い矢印)を指す。 0.73
Left: Flagstone and CFA6, right: CFA2. 左:FlagstoneとCFA6、右:CFA2。 0.89
Flagstone - 6 h フラッグストーン - 6時間 0.80
CFA6 - 6 h cfa6 - 6時間 0.84
CFA2 - 6 h cfa2 - 6時間 0.81
m 9 . 1 : 6 e z i s p e t S m9。 1 : 6 e z i s p e t S。 0.74
100.0 %, 104.2 mm 100.0 %, 121.6 mm 77.6 %, 84.4 mm 100.0 %, 104.2 mm 100.0 %, 121.6 mm 77.6 %, 84.4 mm 0.75
(c) Transformation estimation success rate and average error on forward trajectory with step size 6. (c) ステップサイズ6の前方軌道における変態推定成功率と平均誤差 0.81
All maps are effectively built from a single stereo pair. すべての地図は単一のステレオペアから構築されている。 0.51
Failure cases for CFA2 can be attributed to half the mesh missing. CFA2の障害ケースは、メッシュの半分が欠落しているためである。 0.52
Trajectory Forward Wave 0.4 1.9 Step size [m] 0.8 1.2 0.4 0.8 1.5 3.0 6.0 e Range [m] 3.0 5.0 3.0 3.0 3.0 n Success [%] 100.0 100.0 100.0 86.2 100.0 100.0 100.0 100.0 o t s Error [mm] 56.9 84.9 116.7 104.2 65.9 248.2 80.4 50.8 . Trajectory Forward Wave 0.4.9 Step size [m] 0.8 1.2 0.4 0.8 1.5 3.0 6.0 e Range [m] 3.0 5.0 3.0 3.0 3.0 3.0 n Success [%] 100.0 100.0 100.0 86.2 100.0 100.0 100.0 o t s Error [mm] 56.9 84.9 116.7 104.2 65.9 248.2 80.4 50.8 0.58
F 3.0 6.0 3.0 4.0 6 Range [m] 3.5 4.0 Success [%] 100.0 100.0 100.0 100.0 100.0 100.0 98.3 100.0 A F 83.9 122.4 119.2 75.6 110.9 139.3 121.6 Error [mm] 85.2 C 2 Range [m] 3.5 2.5 3.0 3.0 Success [%] 100.0 100.0 100.0 77.6 100.0 100.0 100.0 77.6 A F 77.3 189.1 312.8 74.3 Error [mm] 60.9 84.4 C F 3.0 6.0 3.0 4.0 6 Range [m] 3.5 4.0 Success [%] 100.0 100.0 100.0 100.0 98.3 100.0 A F 83.9 122.4 119.2 75.6 110.9 139.3 121.6 Error [mm] 85.2 C 2 Range [m] 3.5 2.5 3.0 Success [%] 100.0 100.0 100.0 77.6 A F 77.3 189.1 312.8 74.3 Error [mm] 60.9 84.4 C 0.67
5.0 94.4 3.0 75.1 5.0 94.4 3.0 75.1 0.50
2.0 6.0 6.0 2.0 6.0 6.0 0.55
4.5 6.0 4.0 4.5 6.0 4.0 0.59
(d) VTSM results on wave and forward imaging trajectories. (d)VTSMは、波動および前方イメージングの軌跡に現れる。 0.79
We sub-sample each with four step sizes, skipping viewpoints in between. それぞれ4つのステップサイズでサブサンプルし、中間の視点をスキップします。 0.63
“Range” denotes the maximum distance between the resulting mapping and relocalization images. Range”は、結果のマッピングと再ローカライズ画像の最大距離を表す。 0.81
Fig. 6. Results on different mapping step sizes and relocalization ranges. フィギュア。 6. 異なるマッピングステップサイズと再ローカリゼーション範囲の結果。 0.68
task due to the unknown of how depots may change over time. 時間とともにどのようにデポが変わるかの未知によるタスク。 0.52
In this paper, we presented a complete relocalization pipeline matching partial renderings of a depot map over multiple virtual viewpoints to real images. 本稿では,複数の仮想視点から実画像へのデポマップの部分レンダリングをマッチングする完全再局在化パイプラインを提案する。 0.84
Our approach estimated poses with 100 % success rate across all terrains and lighting differences when local feature matching would completely fail, with average error below 10 cm in both nominal and extended conditions. 提案手法では,全地形で100パーセントの成功率と,局所的な特徴マッチングが完全に失敗する場合の照明差を推定し,平均誤差を10cm以下とした。 0.78
Further analysis permitted by our large-scale dataset showed that our method maintained similar performance for at least 3 m away from poses imaged by Perseverance, with relocalization failing only when depot mapping itself fails. 大規模データセットが許容するさらなる解析により,提案手法は,Perseveranceが撮影したポーズから少なくとも3m離れた位置で同様の性能を維持し,デポマップ自体の故障時にのみ再局在が失敗することを示した。 0.64
Based on results across different experimental conditions, we recommend that depots are 実験条件の異なる結果に基づいて、補給所が推奨される。 0.76
3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping, unalignedmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping, unalignedmapping viewpointsrelocaliza tion viewpoints0123456[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1m0123456[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1m0123[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1mfailure 3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping, unalignedmapping viewpointsrelocaliza tion viewpoints3210123x [m]2.01.51.00.50.00.51. 01.52.0y [m]Depot mapping and relocalization viewpointsmapping, unalignedmapping viewpointsrelocaliza tion viewpoints0123456[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1m0123456[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1m0123[m] to nearest mapping image025507510012515 0175200[deg] to nearest mapping imageerror0.1merror& gt;0.1mfailure 0.59
英語(論文から抽出)日本語訳スコア
constructed on fractured bedrock on Mars akin to flagstone on Earth, and imaged by Perseverance from viewpoints no further than 1 m apart. 地球上のフラッグストーンに似た火星の破砕岩の上に建設され、パーセヴァンスによって1m離れた地点で撮影された。
訳抜け防止モード: 地球上のフラッグストーンに似た火星の岩盤の上に造られた 1m以上離れた視点から 忍耐力で撮影されます
0.75
Sparse, or even no rocks can be considered if the effects of Martian wind can be deemed negligible from surface or orbital imagery. 火星の風の影響が表面や軌道の画像から無視できるものと見なせるならば、希薄、あるいは岩は考慮できない。 0.76
Our work lends itself to multiple development opportunities. 私たちの仕事は複数の開発機会に役立ちます。 0.72
First, the viewpoint randomization process could appropriately be implemented as a particle filter that updates search parameters rather than following a fixed schedule. まず、パースペクティブランダム化プロセスは、固定スケジュールに従うのではなく、探索パラメータを更新するパーティクルフィルタとして適切に実装できる。 0.63
We expect this would improve relocalization accuracy and computational efficiency towards being used onboard the rover. これにより、ローバーに搭載されるための再ローカリゼーションの精度と計算効率が向上します。 0.62
Machine learning techniques could also be used to identify salient points on the map that are most likely to yield successful matches, as done manually in [19]. 機械学習のテクニックは、[19]で手作業で行われているように、最もうまくマッチする可能性のあるマップのサルエントポイントを識別するためにも使用できる。 0.75
As a longer-term development, the synthetic matching pipeline could be applied to image modalities other than direct pixel intensity and its derivatives. 長期の開発として、合成マッチングパイプラインは、直接画素強度およびその誘導体以外の画像モダリティに適用することができる。 0.73
We could, for example, convert both synthetic and real images to lighting-invariant representations using recent neural-network-based techniques [41], or synthetically relight the depot map on the fly to reproduce Mars lighting conditions at SFR relocalization time. 例えば、最近のニューラルネットワークに基づく技術[41]を用いて合成画像と実画像の両方を照明不変表現に変換するか、あるいはsfr再局在時に火星の照明条件を再現するために、デポマップを合成的にリライトすることができる。 0.68
REFERENCES [1] K. S. Ali, C. A. Vanelli, J. J. Biesiadecki, M. W. Maimone, Y. Cheng, A. M. San Martin, and J. W. Alexander. 参考 [1] K. S. Ali, C. A. Vanelli, J. J. Biesiadecki, M. W. Maimone, Y. Cheng, A. M. San Martin, J. W. Alexander。 0.66
Attitude and position In IEEE Int. IEEE Intにおける姿勢と位置。 0.86
Conf. Syst. estimation on the mars exploration rovers. Conf シスト。 火星探査ローバーの 推定結果です 0.55
Man Cybern., 2005. マン・サイクロン、2005年。 0.59
[2] A. Anoosheh, T. Sattler, R. Timofte, M. Pollefeys, and L. Van Gool. [2] A. Anoosheh, T. Sattler, R. Timofte, M. Pollefeys, L. Van Gool。 0.92
Night-to-day image translation for retrieval-based localization. 検索に基づく局所化のための昼夜画像翻訳 0.59
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2019. Autom., 2019年。 0.92
[3] J. N. Bakambu, P. Allard, and E. Dupuis. [3] j. n. bakambu, p. allard, e. dupuis。 0.79
3d terrain modeling for rover localization and navigation. ローバー位置とナビゲーションのための3次元地形モデリング 0.77
In IEEE Can. Conf. IEEEでは可能。 Conf 0.67
Comput. Robot Vision, 2006. Comput ロボットビジョン、2006年。 0.63
[4] P. J. Besl and N. D. McKay. 4] P. J. BeslとN. D. McKay。 0.86
A method for registration of 3-d shapes. 3次元形状の登録方法。 0.54
IEEE Trans. IEEE Trans。 0.82
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 1992. 1992年、デビュー。 0.49
[5] C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, and J. J. Leonard. 5]C. Cadena, L. Carlone, H. Carrillo, Y. Latif, D. Scaramuzza, J. Neira, I. Reid, J. J. Leonard。 0.93
Past, present, and future of simultaneous IEEE localization and mapping: Toward the robust-perception age. IEEEのローカライズとマッピングの同時化の過去、現在、未来:頑健な知覚の時代に向けて 0.69
Trans. Rob., 2016. トランス。 ロブ、2016年。 0.65
[6] P. J. Carle, P. T. Furgale, and T. D. Barfoot. 6] P. J. Carle、P. T. Furgale、T. D. Barfoot。 0.86
Long-range rover localization by matching lidar scans to orbital elevation maps. lidarスキャンと軌道高度マップの整合によるローバーの長距離位置推定 0.61
J. Field Rob., 2010. J。 2010年、フィールドロブ。 0.76
[7] W. Churchill and P. Newman. 7] W. チャーチルとP. ニューマン。 0.63
Experience-based navigation for longterm localisation. 長期局所化のための経験に基づくナビゲーション。 0.55
Int. J. Rob. Int J。 Rob 0.59
Res., 2013. [8] L. Clement, M. Gridseth, J. Tomasi, and J. Kelly. 2013年、退団。 [8]L.Clement、M. Gridseth、J. Tomasi、J. Kelly。 0.72
Learning matchable image transformations for long-term metric visual localization. 長期視定位のためのマッチング可能な画像変換の学習 0.72
IEEE Rob. Autom. IEEEロブ。 自動。 0.68
Lett., 2020. [9] P. Corke, R. Paul, W. Churchill, and P. Newman. 2020年。 9] P.コーク、R.ポール、W.チャーチル、P.ニューマン。 0.63
Dealing with shadows: Capturing intrinsic scene appearance for image-based outdoor localisation. シャドーを扱う: イメージベースの屋外ローカライズのための内在的なシーンの外観をキャプチャする。 0.53
In IEEE/RSJ Int. IEEE/RSJ Int。 0.90
Conf. Intell. Conf インテル。 0.51
Rob. Syst., 2013. Rob 2013年、同上。 0.56
[10] F. Cozman, E. Krotkov, and C. Guestrin. 10] F. Cozman、E. Krotkov、C. Guestrin。 0.81
Outdoor visual position estimation for planetary rovers. 惑星ローバーの屋外視覚位置推定 0.56
Auton. Robots, 2000. オート。 2000年、ロボット。 0.77
[11] M. A. Fischler and R. C. Bolles. 11] m. a. fischler and r. c. bolles. 0.77
Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography. ランダムサンプルコンセンサス:画像解析と自動地図作成への応用によるモデル適合のためのパラダイム。 0.86
Commun. ACM, 1981. Commun ACM、1981年。 0.66
[12] A. Geiger, J. Ziegler, and C. Stiller. 12] A. Geiger、J. Ziegler、C. Stiller。 0.80
Stereoscan: Dense 3d reconstruction in real-time. Stereoscan:リアルタイムにDense 3d再構築。 0.70
In IEEE Intell. IEEE Intellを参照。 0.88
Veh. Symp., 2011. うーん。 2011年、シンプ。 0.70
[13] M. Geppert, P. Liu, Z. Cui, M. Pollefeys, and T. Sattler. 13] M. Geppert, P. Liu, Z. Cui, M. Pollefeys, T. Sattler. 0.91
Efficient 2d3d matching for multi-camera visual localization. マルチカメラビジュアルローカリゼーションのための効率的な2d3dマッチング。 0.57
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2019. Autom., 2019年。 0.92
[14] R. Giubilato, M. Vayugundla, M. J. Schuster, W. St¨urzl, A. Wedler, R. Triebel, and S. Debei. 14] R. Giubilato、M. Vayugundla、M.J. Schuster、W.聖シュルツル、A. Wedler、R. Triebel、S. Debei。 0.76
Relocalization with submaps: Multi-session IEEE mapping for planetary rovers equipped with stereo cameras. サブマップによる再ローカライゼーション:ステレオカメラを備えた惑星ローバーのマルチセッションIEEEマッピング。 0.66
Rob. Autom. Lett., 2020. Rob 自動。 2020年。 0.58
[15] M. Golombek and D. Rapp. [15]M. GolombekとD. Rapp。 0.90
Size-frequency distributions of rocks on mars and earth analog sites: Implications for future landed missions. 火星および地球アナログ地における岩石の粒度分布:将来の着陸ミッションへの意味 0.82
J. Geophys. J. Geophys所属。 0.74
Res. : Planets, 1997. Res! 1997年、惑星。 0.68
[26] K. Ok, W. N. Greene, and N. Roy. [26] K. Ok、W.N. Greene、N. Roy。 0.87
[16] M. Gridseth and T. Barfoot. 16] M. GridsethとT. Barfoot。 0.84
Towards direct localization for visual teach and repeat. 視覚的指導と反復のための直接的位置決め 0.63
In IEEE Conf. IEEE Confに登場。 0.83
Comput. Robot Vision, 2019. Comput ロボットビジョン、2019年。 0.65
[17] A. Lambert, P. Furgale, T. D. Barfoot, and J. Enright. 17] A. Lambert、P. Furgale、T.D. Barfoot、J. Enright。 0.86
Visual odometry aided by a sun sensor and inclinometer. 太陽センサーおよび傾斜計によって助けられる視覚ドオドメトリー。 0.69
In IEEE Aerosp. IEEE Aerospを参照。 0.84
Conf., 2011. [18] R. Li, K. Di, A. 2011年、同上。 [18] R. Li, K. Di, A. 0.88
B. Howard, L. Matthies, J. Wang, and S. Agarwal. B. Howard、L. Matthies、J. Wang、S. Agarwal。 0.85
Rock modeling and matching for autonomous long-range mars rover localization. 火星探査機ローバーの自律位置推定のための岩石モデリングとマッチング 0.63
J. Field Rob., 2007. J。 2007年、フィールドロブ。 0.76
[19] D. A. Lorenz, R. Olds, A. 19] D. A. Lorenz, R. Olds, A。 0.90
May, C. Mario, M. E. Perry, E. E. Palmer, and M. Daly. 5月、C.マリオ、M.E.ペリー、E.E.パーマー、M.デイリー。 0.61
Lessons learned from osiris-rex autonomous navigation using natural feature tracking. 自然機能追跡を用いたオシリスレックス自律ナビゲーションから学んだ教訓。 0.65
In IEEE Aerosp. IEEE Aerospを参照。 0.84
Conf., 2017. [20] D. G. Lowe. 2017年、会長。 20] D.G. Lowe。 0.74
Distinctive image features from scale-invariant keypoints. スケール不変キーポイントからの識別画像の特徴。 0.59
Int. J. Comput. Int J.Comput。 0.67
Vision, 2004. 2004年、ビジョン。 0.87
[21] M. Maimone, Y. Cheng, and L. Matthies. [21]M. Maimone、Y. Cheng、L. Matthies。 0.84
Two years of visual odometry on the mars exploration rovers. 火星探査ローバーの2年間の視覚オドメトリ 0.55
J. Field Rob., 2007. J。 2007年、フィールドロブ。 0.76
[22] J. Maki, C. McKinney, R. Willson, R. Sellar, D. Copley-Woods, M. Valvo, T. Goodsall, J. McGuire, K. Singh, T. Litwin, et al The In Lunar Planet. 22] J. Maki, C. McKinney, R. Willson, R. Sellar, D. Copley-Woods, M. Valvo, T. Goodsall, J. McGuire, K. Singh, T. Litwin, et al The In Lunar Planet。 0.91
Sci. Conf., mars 2020 rover engineering cameras. Sci Conf.、Mars 2020ローバーエンジニアリングカメラ。 0.62
2020. [23] C. McManus, W. Churchill, W. Maddern, A. D. Stewart, and P. Newman. 2020. 23] C. McManus、W. Churchill、W. Maddern、A. D. Stewart、P. Newman。 0.88
Shady dealings: Robust, long-term visual localisation using illumination invariance. shady deals: 照明不変性を用いたロバストで長期の視覚局所化。 0.65
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2014. 2014年、デビュー。 0.55
[24] C. McManus, B. Upcroft, and P. Newman. 24] C. McManus、B. Upcroft、P. Newman。 0.82
Scene signatures: Localised and point-less features for localisation. シーンシグネチャ:ローカリゼーションのためのローカライズおよびポイントレス機能。 0.59
In Rob. : Sci. Syst., 2014. のロブ。 Sci。 2014年、同上。 0.51
[25] B. K. Muirhead, A. K. Nicholas, J. Umland, O. Sutherland, and S. Vijendran. B. K. Muirhead, A. K. Nicholas, J. Umland, O. Sutherland, S. Vijendran. 0.89
Mars sample return campaign concept status. mars sample return campaignの略。 0.62
Acta Astronaut., 2020. 2020年、宇宙飛行士。 0.70
Simultaneous tracking and rendering: Real-time monocular localization for mavs. 同時トラッキングとレンダリング: mavs のリアルタイム単眼ローカリゼーション。 0.65
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2016. 2016年、自動車。 0.57
[27] S. Park, T. Sch¨ops, and M. Pollefeys. [27]S. Park、T. Sch sops、M. Pollefeys。 0.78
Illumination change robustness in direct visual slam. 直接視覚スラムにおける照明変化のロバスト性 0.62
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2017. 2017年、自動車。 0.58
[28] G. Pascoe, W. Maddern, A. D. Stewart, and P. Newman. [28] G. Pascoe、W. Maddern、A.D. Stewart、P. Newman。 0.88
Farlap: Fast robust localisation using appearance priors. farlap: 外観優先を用いた高速ロバストなローカライズ。 0.63
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2015. 2015年、自動車。 0.63
[29] M. Paton, K. MacTavish, C. J. Ostafew, and T. D. Barfoot. 29] M. Paton、K. MacTavish、C. J. Ostafew、T. D. Barfoot。 0.87
It’s not easy seeing green: Lighting-resistant stereo visual teach & repeat using color-constant images. 照明に耐性のあるステレオ視覚指導と、カラーコンスタントな画像を使った再現。 0.54
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2015. 2015年、自動車。 0.63
[30] M. Paton, K. MacTavish, M. Warren, and T. D. Barfoot. 30] M. Paton、K. MacTavish、M. Warren、T. D. Barfoot。 0.88
Bridging the appearance gap: Multi-experience localization for long-term visual teach and repeat. 外観ギャップの橋渡し: 長期視覚指導と反復のための多実験的ローカライズ。 0.70
In IEEE/RSJ Int. IEEE/RSJ Int。 0.90
Conf. Intell. Conf インテル。 0.51
Rob. Syst. IEEE, 2016. Rob シスト。 2016年、IEEE。 0.57
[31] T.-H. Pham, W. Seto, S. Daftry, A. Brinkman, J. Mayo, Y. Cheng, C. Padgett, E. Kulczycki, and R. Detry. [31] T.H. Pham, W. Seto, S. Daftry, A. Brinkman, J. Mayo, Y. Cheng, C. Padgett, E. Kulczycki, R. Detry。 0.86
Rover localization for tube pickup: Dataset, methods and validation for mars sample return planning. rover localization for tube pickup: dataset, methods and validation for mars sample return planning (英語) 0.85
In IEEE Aerosp. IEEE Aerospを参照。 0.84
Conf., 2020. [32] N. Piasco, D. Sidib´e, V. Gouet-Brunet, and C. Demonceaux. 2020年発売。 N. Piasco, D. Sidib ́e, V. Gouet-Brunet, C. Demonceaux. 0.71
Learning scene geometry for visual localization in challenging conditions. 課題条件下での視覚定位のための学習シーン幾何 0.68
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2019. Autom., 2019年。 0.92
[33] R. B. Rusu and S. Cousins. 33] R. B. RusuとS. Cousins。 0.91
3d is here: Point cloud library (pcl). 3dは、point cloud library (pcl)である。 0.85
In IEEE Int. IEEE Intで。 0.78
Conf. Robot. Conf ロボット。 0.64
Autom., 2011. 2011年、自動車。 0.63
[34] T. Sattler, B. Leibe, and L. Kobbelt. [34]T. Sattler、B. Leibe、L. Kobbelt。 0.82
Efficient & effective prioritized matching for large-scale image-based localization. 大規模画像ベースローカライゼーションのための効率的で効果的な優先順位付けマッチング 0.57
IEEE Trans. IEEE Trans。 0.82
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 2016. 2016年、デビュー。 0.40
[35] T. Sattler, W. Maddern, C. Toft, A. Torii, L. Hammarstrand, E. Stenborg, D. Safari, M. Okutomi, M. Pollefeys, J. Sivic, et al Benchmarking 6dof outdoor visual localization in changing conditions. 35] T. Sattler, W. Maddern, C. Toft, A. Torii, L. Hammarstrand, E. Stenborg, D. Safari, M.OKUtomi, M. Pollefeys, J. Sivic, et al Benchmarking 6dof 屋外の視覚的局在化。 0.87
In IEEE Conf. IEEE Confに登場。 0.83
Comput. Vision Pattern Recognit., 2018. Comput Vision Pattern Recognit., 2018年。 0.69
[36] J. L. Schonberger and J.-M. Frahm. J. L. Schonberger と J.-M. Frahm 0.76
Structure-from-motio n revisited. In IEEE Conf. 構造から運動へ IEEE Confに登場。 0.70
Comput. Vision Pattern Recognit., 2016. Comput Vision Pattern Recognit., 2016年。 0.70
[37] E. Simo-Serra, E. Trulls, L. Ferraz, I. Kokkinos, P. Fua, and F. MorenoNoguer. 37] E. Simo-Serra、E. Trulls、L. Ferraz、I. Kokkinos、P. Fua、F. MorenoNoguer。 0.86
Discriminative learning of deep convolutional feature point descriptors. 深層畳み込み特徴点記述子の判別学習 0.64
In Proceedings of the IEEE International Conference on Computer Vision, pages 118–126, 2015. In Proceedings of the IEEE International Conference on Computer Vision, page 118–126, 2015 0.87
[38] Y. Tao, J.-P. Muller, and W. Poole. [38] Y. Tao, J.-P. Muller, W. Poole 0.90
Automated localisation of mars rovers using co-registered hirise-ctx-hrsc orthorectified images and wide baseline navcam orthorectified mosaics. ハイライズ-ctx-hrsc補正画像と広基線ナブカム補正モザイクを用いた火星ローバーの自動位置推定 0.57
Icarus, 2016. Icarus, 2016年。 0.92
[39] A. Torii, R. Arandjelovic, J. Sivic, M. Okutomi, and T. Pajdla. 39] A. Torii、R. Arandjelovic、J. Sivic、M.OKUtomi、T. Pajdla。 0.84
24/7 place recognition by view synthesis. ビュー合成による24/7位置認識 0.78
In IEEE Conf. IEEE Confに登場。 0.83
Comput. Vision Pattern Recognit., 2015. Comput Vision Pattern Recognit. 2015年。 0.70
[40] S. Umeyama. Least-squares estimation of transformation parameters between two point patterns. [40]梅山さん。 2点パターン間の変換パラメータの最小二乗推定 0.65
IEEE Trans. IEEE Trans。 0.82
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 1991. 1991年、デビュー。 0.49
[41] L. von Stumberg, P. Wenzel, Q. Khan, and D. Cremers. 41] L. von Stumberg, P. Wenzel, Q. Khan, D. Cremers 0.83
Gn-net: The gauss-newton loss for multi-weather relocalization. gn-net:gauss-newton loss for multi-weather relocalization。 0.63
IEEE Rob. Autom. IEEEロブ。 自動。 0.68
Lett., 2020. 2020年。 0.57
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。