論文の概要: A Pipeline for Vision-Based On-Orbit Proximity Operations Using Deep
Learning and Synthetic Imagery
- arxiv url: http://arxiv.org/abs/2101.05661v1
- Date: Thu, 14 Jan 2021 15:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:53:29.755276
- Title: A Pipeline for Vision-Based On-Orbit Proximity Operations Using Deep
Learning and Synthetic Imagery
- Title(参考訳): 深層学習と合成画像を用いたビジョンベースオン軌道近似操作パイプライン
- Authors: Carson Schubert, Kevin Black, Daniel Fonseka, Abhimanyu Dhir, Jacob
Deutsch, Nihal Dhamani, Gavin Martin, Maruthi Akella
- Abstract要約: 現在、2つの重要な課題が、ビジョンベースの軌道近傍操作にディープラーニングを使用する際の大きな障壁となっている。
ラベル付きトレーニングデータの不足(ターゲット宇宙船のイメージ)は、堅牢なディープラーニングモデルの作成を妨げる。
本稿では、オンビットビジュアルナビゲーションアプリケーション用に特別に開発されたオープンソースのディープラーニングパイプラインについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has become the gold standard for image processing over the past
decade. Simultaneously, we have seen growing interest in orbital activities
such as satellite servicing and debris removal that depend on proximity
operations between spacecraft. However, two key challenges currently pose a
major barrier to the use of deep learning for vision-based on-orbit proximity
operations. Firstly, efficient implementation of these techniques relies on an
effective system for model development that streamlines data curation,
training, and evaluation. Secondly, a scarcity of labeled training data (images
of a target spacecraft) hinders creation of robust deep learning models. This
paper presents an open-source deep learning pipeline, developed specifically
for on-orbit visual navigation applications, that addresses these challenges.
The core of our work consists of two custom software tools built on top of a
cloud architecture that interconnects all stages of the model development
process. The first tool leverages Blender, an open-source 3D graphics toolset,
to generate labeled synthetic training data with configurable model poses
(positions and orientations), lighting conditions, backgrounds, and commonly
observed in-space image aberrations. The second tool is a plugin-based
framework for effective dataset curation and model training; it provides common
functionality like metadata generation and remote storage access to all
projects while giving complete independence to project-specific code.
Time-consuming, graphics-intensive processes such as synthetic image generation
and model training run on cloud-based computational resources which scale to
any scope and budget and allow development of even the largest datasets and
models from any machine. The presented system has been used in the Texas
Spacecraft Laboratory with marked benefits in development speed and quality.
- Abstract(参考訳): ディープラーニングは、過去10年間で画像処理の黄金の標準となっている。
同時に、宇宙船間の近接操作に依存する衛星サービスやデブリ除去といった軌道活動への関心が高まっている。
しかし、現在2つの重要な課題が、ビジョンベースの軌道上の近接操作にディープラーニングを使用する上で大きな障壁となっている。
第一に、これらの手法の効率的な実装は、データキュレーション、トレーニング、評価を効率化するモデル開発のための効果的なシステムに依存している。
第2に、ラベル付きトレーニングデータ(ターゲット宇宙船の画像)の不足は、堅牢なディープラーニングモデルの作成を妨げる。
本稿では,on-orbitビジュアルナビゲーションアプリケーション用に開発された,オープンソースのディープラーニングパイプラインを提案する。
私たちの作業の中核は、モデル開発プロセスのすべての段階を相互接続するクラウドアーキテクチャの上に構築された2つのカスタムソフトウェアツールで構成されています。
最初のツールはオープンソースの3DグラフィックツールセットであるBlenderを利用して、設定可能なモデルポーズ(配置と向き)、照明条件、背景、そして一般的に観察される空間内画像収差によるラベル付き合成トレーニングデータを生成する。
第2のツールは、効果的なデータセットのキュレーションとモデルトレーニングのためのプラグインベースのフレームワークで、メタデータ生成やすべてのプロジェクトへのリモートストレージアクセスといった共通機能を提供し、プロジェクト固有のコードを完全に独立させる。
合成画像生成やモデルトレーニングといった、時間を要するグラフィック集約的なプロセスは、任意のスコープや予算にスケールし、任意のマシンから最大のデータセットやモデルの開発を可能にするクラウドベースの計算リソース上で実行される。
提案されたシステムはテキサス宇宙研究所で使われ、開発速度と品質に顕著な利点がある。
関連論文リスト
- Synthetica: Large Scale Synthetic Data for Robot Perception [21.415878105900187]
本稿では,ロバストな状態推定器を訓練するための大規模合成データ生成手法であるSyntheticaを提案する。
本稿では,ほとんどの状態推定問題のフロントエンドとして機能する重要な問題であるオブジェクト検出の課題に焦点を当てる。
レイトレーシングのデータを利用して270万の画像を生成し、高精度なリアルタイム検出変換器を訓練する。
我々は,従来のSOTAの9倍の50-100Hzの検出器を動作させながら,物体検出タスクにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-28T15:50:56Z) - Training Datasets Generation for Machine Learning: Application to Vision Based Navigation [0.0]
視覚ベースのナビゲーションは、画像から情報を抽出した後、GNCの精密センサーとしてカメラを利用する。
宇宙アプリケーションにおける機械学習の採用を可能にするために、利用可能なトレーニングデータセットがアルゴリズムの検証に適していることの実証が障害のひとつだ。
本研究の目的は,機械学習アルゴリズムの学習に適した画像とメタデータのデータセットを作成することである。
論文 参考訳(メタデータ) (2024-09-17T17:34:24Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Design of Convolutional Extreme Learning Machines for Vision-Based
Navigation Around Small Bodies [0.0]
畳み込みニューラルネットワークのようなディープラーニングアーキテクチャは、画像処理タスクにおけるコンピュータビジョンの標準である。
しかし、その正確さは、しばしば、長く計算的に高価なトレーニングのコストがかかる。
畳み込み極端学習マシンと呼ばれる別の手法は、トレーニング時間の劇的な減少と同等に機能する可能性を示している。
論文 参考訳(メタデータ) (2022-10-28T16:24:21Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - DeepSatData: Building large scale datasets of satellite images for
training machine learning models [77.17638664503215]
本稿では,機械学習モデルの学習のための衛星画像データセットの自動生成のための設計検討を行う。
本稿では,ニューラルネットワークの深層学習と評価の観点から直面する課題について論じる。
論文 参考訳(メタデータ) (2021-04-28T15:13:12Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。