論文の概要: Using Convolutional Neural Networks for Relative Pose Estimation of a
Non-Cooperative Spacecraft with Thermal Infrared Imagery
- arxiv url: http://arxiv.org/abs/2105.13789v1
- Date: Fri, 28 May 2021 12:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:54:27.740136
- Title: Using Convolutional Neural Networks for Relative Pose Estimation of a
Non-Cooperative Spacecraft with Thermal Infrared Imagery
- Title(参考訳): 畳み込みニューラルネットワークを用いた熱赤外画像を用いた非協調型宇宙機の相対ポース推定
- Authors: Maxwell Hogan, Duarte Rondao, Nabil Aouf, and Olivier Dubois-Matra
- Abstract要約: 本稿では、受動熱赤外線カメラフィードからターゲットの粗いポーズを推定できる畳み込みニューラルネットワークについて述べる。
モデルの堅牢性は、まず合成データに基づいて、2つの異なるターゲット上で実証され、次にADRミッション中に直面する現実的なシナリオのために実験室環境で実証される。
- 参考スコア(独自算出の注目度): 3.228630437951415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent interest in on-orbit servicing and Active Debris Removal (ADR)
missions have driven the need for technologies to enable non-cooperative
rendezvous manoeuvres. Such manoeuvres put heavy burden on the perception
capabilities of a chaser spacecraft. This paper demonstrates Convolutional
Neural Networks (CNNs) capable of providing an initial coarse pose estimation
of a target from a passive thermal infrared camera feed. Thermal cameras offer
a promising alternative to visible cameras, which struggle in low light
conditions and are susceptible to overexposure. Often, thermal information on
the target is not available a priori; this paper therefore proposes using
visible images to train networks. The robustness of the models is demonstrated
on two different targets, first on synthetic data, and then in a laboratory
environment for a realistic scenario that might be faced during an ADR mission.
Given that there is much concern over the use of CNN in critical applications
due to their black box nature, we use innovative techniques to explain what is
important to our network and fault conditions.
- Abstract(参考訳): 近年、軌道上サービスとアクティブデブリ除去(ADR)ミッションへの関心が高まり、非協力的なランデブー操作を可能にする技術の必要性が高まっている。
このような操作は、チェイサー宇宙船の知覚能力に重荷をかけた。
本稿では、受動熱赤外線カメラフィードからターゲットの粗いポーズを推定できる畳み込みニューラルネットワーク(CNN)について述べる。
サーマルカメラは、低照度で過露出になりやすい可視性カメラの代替手段を提供する。
そこで本稿では,ネットワークをトレーニングするための可視画像の利用を提案する。
モデルの堅牢性は、まず合成データに基づいて、2つの異なるターゲット上で実証され、次にADRミッション中に直面する現実的なシナリオのために実験室環境で実証される。
ブラックボックスの性質から重要なアプリケーションにCNNを使用することに多くの懸念があるため、ネットワークや障害条件に何が重要かを説明するために革新的な技術を用いています。
関連論文リスト
- SU-Net: Pose estimation network for non-cooperative spacecraft on-orbit [8.671030148920009]
宇宙船のポーズ推定は、ランデブーやドッキング、破片の除去、軌道上の維持など、多くの軌道上の宇宙ミッションにおいて重要な役割を担っている。
衛星軌道上でのレーダ画像の特徴を分析し,Dense Residual U-shaped Network (DR-U-Net) と呼ばれる新しいディープラーニングニューラルネットワーク構造を提案し,画像の特徴を抽出する。
さらに, DR-U-Netに基づく新しいニューラルネットワーク,すなわち, 宇宙機U字型ネットワーク(SU-Net)を導入し, 非協調宇宙船のエンドツーエンドのポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-02-21T11:14:01Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance
Fields [54.27264716713327]
シーンのニューラル・ラジアンス・フィールド(NeRF)表現は,高密度物体記述子の訓練に利用できることを示す。
我々は、最適化されたNeRFを用いて、オブジェクトの複数のビュー間の密接な対応を抽出し、これらの対応を、オブジェクトのビュー不変表現を学習するためのトレーニングデータとして使用する。
また,本手法により教師されたディエンス対応モデルは,市販の学習ディスクリプタよりも106%優れていた。
論文 参考訳(メタデータ) (2022-03-03T18:49:57Z) - ARTSeg: Employing Attention for Thermal images Semantic Segmentation [6.060020806741279]
サーマルセマンティックセグメンテーションのためのARTSegという,アテンションベースのRecurrent Convolution Network (RCNN)エンコーダ・デコーダアーキテクチャを設計した。
提案手法の有効性を公開データセット上で評価し, 平均和合(IoU)における他の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-30T10:17:28Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - EmergencyNet: Efficient Aerial Image Classification for Drone-Based
Emergency Monitoring Using Atrous Convolutional Feature Fusion [8.634988828030245]
本稿では,緊急対応・監視用uavの航空機画像の効率的な分類について述べる。
緊急対応アプリケーションのための専用空中画像データベースを導入し、既存のアプローチの比較分析を行う。
マルチレゾリューション機能を処理するために,アトラス畳み込みに基づく軽量畳み込みニューラルネットワークアーキテクチャが提案されている。
論文 参考訳(メタデータ) (2021-04-28T20:24:10Z) - Event-based Synthetic Aperture Imaging with a Hybrid Network [30.178111153441666]
本稿では,非常に低レイテンシかつ高ダイナミックレンジで非同期イベントを生成可能なイベントカメラに基づく新しいSAIシステムを提案する。
閉鎖対象を再構築するために、スパイキングニューラルネットワーク(SNN)と畳み込みニューラルネットワーク(CNN)からなるハイブリッドエンコーダデコーダネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-03T12:56:55Z) - The Vulnerability of Semantic Segmentation Networks to Adversarial
Attacks in Autonomous Driving: Enhancing Extensive Environment Sensing [25.354929620151367]
本稿では, セマンティックセグメンテーションに使用されるCNNの脆弱性を, 敵対的攻撃に照らし出すことを目的とする。
自動運転における環境認識にcnnを適用することの利点とデメリットを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2021-01-11T14:43:11Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。