論文の概要: Lessons from a Space Lab -- An Image Acquisition Perspective
- arxiv url: http://arxiv.org/abs/2208.08865v1
- Date: Thu, 18 Aug 2022 14:44:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 14:04:31.719964
- Title: Lessons from a Space Lab -- An Image Acquisition Perspective
- Title(参考訳): 宇宙ラボからの教訓 -画像取得の視点から-
- Authors: Leo Pauly, Michele Lynn Jamrozik, Miguel Ortiz Del Castillo, Olivia
Borgue, Inder Pal Singh, Mohatashem Reyaz Makhdoomi, Olga-Orsalia
Christidi-Loumpasefski, Vincent Gaudilliere, Carol Martinez, Arunkumar
Rathinam, Andreas Hein, Miguel Olivares Mendez, Djamila Aouada
- Abstract要約: ルクセンブルク大学のセキュリティ・信頼性・信頼の学際的センター(SnT)は「SnT Zero-G Lab」を開発した。
本稿では,機器選択のための市場調査と実験分析を組み合わせた系統的アプローチを提案する。
- 参考スコア(独自算出の注目度): 7.2090712455329635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Deep Learning (DL) algorithms has improved the performance of
vision-based space applications in recent years. However, generating large
amounts of annotated data for training these DL algorithms has proven
challenging. While synthetically generated images can be used, the DL models
trained on synthetic data are often susceptible to performance degradation,
when tested in real-world environments. In this context, the Interdisciplinary
Center of Security, Reliability and Trust (SnT) at the University of Luxembourg
has developed the 'SnT Zero-G Lab', for training and validating vision-based
space algorithms in conditions emulating real-world space environments. An
important aspect of the SnT Zero-G Lab development was the equipment selection.
From the lessons learned during the lab development, this article presents a
systematic approach combining market survey and experimental analyses for
equipment selection. In particular, the article focus on the image acquisition
equipment in a space lab: background materials, cameras and illumination lamps.
The results from the experiment analyses show that the market survey
complimented by experimental analyses is required for effective equipment
selection in a space lab development project.
- Abstract(参考訳): 近年,Deep Learning (DL)アルゴリズムの利用により,視覚ベースの空間アプリケーションの性能が向上している。
しかし、これらのDLアルゴリズムをトレーニングするために大量の注釈付きデータを生成することは困難であることが証明されている。
合成生成画像は使用できるが、合成データに基づいて訓練されたdlモデルは、実環境環境でテストする場合、しばしば性能低下の影響を受けやすい。
この文脈において、ルクセンブルク大学の学際的セキュリティ・信頼性・信頼センター(snt)は、実世界の宇宙環境を模倣した条件下で視覚ベースの宇宙アルゴリズムを訓練し検証するための「snt zero-g lab」を開発した。
SnT Zero-G Labの開発の重要な側面は機器の選択であった。
本稿では,実験室開発中に学んだ教訓から,市場調査と機器選択の実験分析を組み合わせた体系的アプローチを提案する。
特に、この記事は、背景材料、カメラ、照明ランプといった宇宙実験室の画像取得装置に焦点を当てている。
実験結果から,実験室開発プロジェクトにおける効率的な機器選択には,実験分析による市場調査が不可欠であることが示唆された。
関連論文リスト
- A Deep Learning Approach for Pixel-level Material Classification via Hyperspectral Imaging [1.294249882472766]
ハイパースペクトル(HS)イメージングは、X線蛍光やラマン分光のような従来の技術よりも有利である。
本研究では,HSイメージングと深層学習を併用した材料評価の可能性について検討した。
このモデルは99.94%の分類精度を達成し、色、サイズ、形状のばらつきの堅牢さを示し、材料重なりを効果的に扱った。
論文 参考訳(メタデータ) (2024-09-20T13:38:48Z) - Training Datasets Generation for Machine Learning: Application to Vision Based Navigation [0.0]
視覚ベースのナビゲーションは、画像から情報を抽出した後、GNCの精密センサーとしてカメラを利用する。
宇宙アプリケーションにおける機械学習の採用を可能にするために、利用可能なトレーニングデータセットがアルゴリズムの検証に適していることの実証が障害のひとつだ。
本研究の目的は,機械学習アルゴリズムの学習に適した画像とメタデータのデータセットを作成することである。
論文 参考訳(メタデータ) (2024-09-17T17:34:24Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Space Debris: Are Deep Learning-based Image Enhancements part of the
Solution? [9.117415383776695]
現在地球を周回している宇宙ゴミの量は、加速ペースで持続不可能なレベルに達している。
軌道定義された、登録された宇宙船と、ローグ/非活動的な宇宙物体の検知、追跡、識別、識別は、資産保護に不可欠である。
本研究の主な目的は、可視光スペクトルの単眼カメラで捉えた際の限界や画像アーチファクトを克服するために、ディープニューラルネットワーク(DNN)ソリューションの有効性を検討することである。
論文 参考訳(メタデータ) (2023-08-01T09:38:41Z) - ChemVise: Maximizing Out-of-Distribution Chemical Detection with the
Novel Application of Zero-Shot Learning [60.02503434201552]
本研究は,簡単な学習セットから複雑な露光の学習近似を提案する。
合成センサ応答に対するこのアプローチは, 分布外の化学分析物の検出を驚くほど改善することを示した。
論文 参考訳(メタデータ) (2023-02-09T20:19:57Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - A Pipeline for Vision-Based On-Orbit Proximity Operations Using Deep
Learning and Synthetic Imagery [0.0]
現在、2つの重要な課題が、ビジョンベースの軌道近傍操作にディープラーニングを使用する際の大きな障壁となっている。
ラベル付きトレーニングデータの不足(ターゲット宇宙船のイメージ)は、堅牢なディープラーニングモデルの作成を妨げる。
本稿では、オンビットビジュアルナビゲーションアプリケーション用に特別に開発されたオープンソースのディープラーニングパイプラインについて述べる。
論文 参考訳(メタデータ) (2021-01-14T15:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。