論文の概要: Lessons from a Space Lab -- An Image Acquisition Perspective
- arxiv url: http://arxiv.org/abs/2208.08865v1
- Date: Thu, 18 Aug 2022 14:44:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 14:04:31.719964
- Title: Lessons from a Space Lab -- An Image Acquisition Perspective
- Title(参考訳): 宇宙ラボからの教訓 -画像取得の視点から-
- Authors: Leo Pauly, Michele Lynn Jamrozik, Miguel Ortiz Del Castillo, Olivia
Borgue, Inder Pal Singh, Mohatashem Reyaz Makhdoomi, Olga-Orsalia
Christidi-Loumpasefski, Vincent Gaudilliere, Carol Martinez, Arunkumar
Rathinam, Andreas Hein, Miguel Olivares Mendez, Djamila Aouada
- Abstract要約: ルクセンブルク大学のセキュリティ・信頼性・信頼の学際的センター(SnT)は「SnT Zero-G Lab」を開発した。
本稿では,機器選択のための市場調査と実験分析を組み合わせた系統的アプローチを提案する。
- 参考スコア(独自算出の注目度): 7.2090712455329635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Deep Learning (DL) algorithms has improved the performance of
vision-based space applications in recent years. However, generating large
amounts of annotated data for training these DL algorithms has proven
challenging. While synthetically generated images can be used, the DL models
trained on synthetic data are often susceptible to performance degradation,
when tested in real-world environments. In this context, the Interdisciplinary
Center of Security, Reliability and Trust (SnT) at the University of Luxembourg
has developed the 'SnT Zero-G Lab', for training and validating vision-based
space algorithms in conditions emulating real-world space environments. An
important aspect of the SnT Zero-G Lab development was the equipment selection.
From the lessons learned during the lab development, this article presents a
systematic approach combining market survey and experimental analyses for
equipment selection. In particular, the article focus on the image acquisition
equipment in a space lab: background materials, cameras and illumination lamps.
The results from the experiment analyses show that the market survey
complimented by experimental analyses is required for effective equipment
selection in a space lab development project.
- Abstract(参考訳): 近年,Deep Learning (DL)アルゴリズムの利用により,視覚ベースの空間アプリケーションの性能が向上している。
しかし、これらのDLアルゴリズムをトレーニングするために大量の注釈付きデータを生成することは困難であることが証明されている。
合成生成画像は使用できるが、合成データに基づいて訓練されたdlモデルは、実環境環境でテストする場合、しばしば性能低下の影響を受けやすい。
この文脈において、ルクセンブルク大学の学際的セキュリティ・信頼性・信頼センター(snt)は、実世界の宇宙環境を模倣した条件下で視覚ベースの宇宙アルゴリズムを訓練し検証するための「snt zero-g lab」を開発した。
SnT Zero-G Labの開発の重要な側面は機器の選択であった。
本稿では,実験室開発中に学んだ教訓から,市場調査と機器選択の実験分析を組み合わせた体系的アプローチを提案する。
特に、この記事は、背景材料、カメラ、照明ランプといった宇宙実験室の画像取得装置に焦点を当てている。
実験結果から,実験室開発プロジェクトにおける効率的な機器選択には,実験分析による市場調査が不可欠であることが示唆された。
関連論文リスト
- Enhancing Environmental Robustness in Few-shot Learning via Conditional Representation Learning [27.549889991320203]
ドメイン固有の視覚認識において、トレーニングデータの不足を克服するために、ショットラーニングが広く活用されている。
現実のシナリオでは、複雑な背景、様々な照明条件、長距離射撃、移動目標などの環境要因は、テスト画像に多くの不完全なターゲットやノイズ破壊を生じさせる。
本稿では,それぞれの表現過程における条件情報として,トレーニングとテスト画像間の相互作用を統合する新しい条件表現学習ネットワーク(CRLNet)を提案する。
論文 参考訳(メタデータ) (2025-02-03T09:18:03Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光現実性シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する重要な能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
私たちは、自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開しました。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - Exploring Fully Convolutional Networks for the Segmentation of Hyperspectral Imaging Applied to Advanced Driver Assistance Systems [1.8874331450711404]
高度運転支援システム(ADAS)におけるハイパースペクトルイメージング(HSI)の利用について検討する。
本稿では,完全な畳み込みネットワーク(FCN)をADAS用HSIの画像セグメント化に適用した実験結果について述べる。
我々はHSI-Drive v1.1データセットを使用し、実際の運転条件で記録されたラベル付き画像のセットを、小型のNIR-HSIカメラで提供する。
論文 参考訳(メタデータ) (2024-12-05T08:58:25Z) - A Deep Learning Approach for Pixel-level Material Classification via Hyperspectral Imaging [1.294249882472766]
ハイパースペクトル(HS)イメージングは、X線蛍光やラマン分光のような従来の技術よりも有利である。
本研究では,HSイメージングと深層学習を併用した材料評価の可能性について検討した。
このモデルは99.94%の分類精度を達成し、色、サイズ、形状のばらつきの堅牢さを示し、材料重なりを効果的に扱った。
論文 参考訳(メタデータ) (2024-09-20T13:38:48Z) - Training Datasets Generation for Machine Learning: Application to Vision Based Navigation [0.0]
視覚ベースのナビゲーションは、画像から情報を抽出した後、GNCの精密センサーとしてカメラを利用する。
宇宙アプリケーションにおける機械学習の採用を可能にするために、利用可能なトレーニングデータセットがアルゴリズムの検証に適していることの実証が障害のひとつだ。
本研究の目的は,機械学習アルゴリズムの学習に適した画像とメタデータのデータセットを作成することである。
論文 参考訳(メタデータ) (2024-09-17T17:34:24Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - ChemVise: Maximizing Out-of-Distribution Chemical Detection with the
Novel Application of Zero-Shot Learning [60.02503434201552]
本研究は,簡単な学習セットから複雑な露光の学習近似を提案する。
合成センサ応答に対するこのアプローチは, 分布外の化学分析物の検出を驚くほど改善することを示した。
論文 参考訳(メタデータ) (2023-02-09T20:19:57Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Optical flow-based branch segmentation for complex orchard environments [73.11023209243326]
シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
論文 参考訳(メタデータ) (2022-02-26T03:38:20Z) - SPEED+: Next Generation Dataset for Spacecraft Pose Estimation across
Domain Gap [0.9449650062296824]
本稿では,SPEED+について紹介する。次世代宇宙船は,領域ギャップに着目したポーズ推定データセットである。
SPEED+には、レンデブース・オプティカル・ナビゲーション(TRON)施設で撮影された宇宙船モックアップモデルの9,531枚のシミュレーション画像が含まれている。
TRONは、任意の数のターゲット画像を、正確かつ極端に多様なポーズラベルで撮影できる、第一種ロボットテストベッドである。
論文 参考訳(メタデータ) (2021-10-06T23:22:24Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。