論文の概要: Onboard-Targeted Segmentation of Straylight in Space Camera Sensors
- arxiv url: http://arxiv.org/abs/2602.20709v1
- Date: Tue, 24 Feb 2026 09:15:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.689106
- Title: Onboard-Targeted Segmentation of Straylight in Space Camera Sensors
- Title(参考訳): 宇宙カメラセンサにおけるストライライトの搭載目標セグメンテーション
- Authors: Riccardo Gallon, Fabian Schiemenz, Alessandra Menicucci, Eberhard Gill,
- Abstract要約: 本研究では,宇宙カメラ断層のセマンティックセグメンテーションのための人工知能(AI)に基づく方法論について詳述する。
我々は、カメラの視野(FoV)周辺の太陽の存在によって引き起こされる成層圏効果のセグメンテーションに対処する。
異常画像は、我々の発行したデータセットから抽出される。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study details an artificial intelligence (AI)-based methodology for the semantic segmentation of space camera faults. Specifically, we address the segmentation of straylight effects induced by solar presence around the camera's Field of View (FoV). Anomalous images are sourced from our published dataset. Our approach emphasizes generalization across diverse flare textures, leveraging pre-training on a public dataset (Flare7k++) including flares in various non-space contexts to mitigate the scarcity of realistic space-specific data. A DeepLabV3 model with MobileNetV3 backbone performs the segmentation task. The model design targets deployment in spacecraft resource-constrained hardware. Finally, based on a proposed interface between our model and the onboard navigation pipeline, we develop custom metrics to assess the model's performance in the system-level context.
- Abstract(参考訳): 本研究では,宇宙カメラ断層のセマンティックセグメンテーションのための人工知能(AI)に基づく方法論について詳述する。
具体的には、カメラの視野(FoV)周辺の太陽の存在によって引き起こされる成層圏効果のセグメンテーションに対処する。
異常画像は、我々の発行したデータセットから抽出される。
提案手法では, 空間的でないさまざまなコンテキストにおけるフレアを含む, パブリックデータセット(Flare7k++)での事前トレーニングを活用して, 現実的な空間的データの不足を軽減することで, 多様なフレアテクスチャの一般化を強調している。
MobileNetV3バックボーンを備えたDeepLabV3モデルはセグメンテーションタスクを実行する。
モデル設計は、宇宙船の資源に制約のあるハードウェアへの展開を目標としている。
最後に、モデルとオンボードナビゲーションパイプラインのインターフェースの提案に基づき、システムレベルのコンテキストでモデルの性能を評価するカスタムメトリクスを開発する。
関連論文リスト
- Hyperspectral Adapter for Semantic Segmentation with Vision Foundation Models [18.24287471339871]
ハイパースペクトルイメージング(HSI)は、多数の狭い波長帯にわたる密度のスペクトル測定とともに空間情報をキャプチャする。
本アーキテクチャでは、スペクトル変換器とスペクトル対応空間先行モジュールを組み込んで、豊富な空間スペクトル特徴を抽出する。
我々のアーキテクチャは、HSI入力を直接使用しながら、最先端のセマンティックセマンティックセマンティックセマンティクス性能を実現し、ビジョンベースとハイパースペクトルセマンティクスの両方のセマンティクス法より優れている。
論文 参考訳(メタデータ) (2025-09-24T13:32:07Z) - Object segmentation in the wild with foundation models: application to vision assisted neuro-prostheses for upper limbs [2.7554193753662015]
本研究では,多種多様な対象に対して訓練された基礎モデルを用いて,日常的な対象を含む特定のイメージを微調整することなく,対象のセグメンテーションを行うことができるかどうかを検討する。
本稿では,視線修正に基づくプロンプト生成手法を提案し,セグメンテーションシナリオにおけるセグメンション・アロシング・モデル(SAM)を導出する。
IoUセグメンテーションの品質指標は, 実世界のグラスピング・イン・ザ・ワイヤードコーパスの課題データから最大0.01ポイント向上した。
論文 参考訳(メタデータ) (2025-07-24T15:40:44Z) - A large-scale, physically-based synthetic dataset for satellite pose estimation [0.0]
本稿では,ハッブル宇宙望遠鏡(HST)を対象とするDLVS3-HST-V1データセットについて述べる。
データセットは、高度なリアルタイムおよびオフラインレンダリング技術を使用して生成され、高忠実度3Dモデル、ダイナミックライティング、物理的に正確な材料特性を統合する。
このパイプラインは、6-DoFのポーズとキーポイントデータ、セマンティックセグメンテーション、深さ、正規マップを備えた大規模でリッチな注釈付きイメージセットの作成をサポートする。
論文 参考訳(メタデータ) (2025-06-15T09:24:32Z) - Are We Ready for Real-Time LiDAR Semantic Segmentation in Autonomous Driving? [42.348499880894686]
シーンセマンティックセグメンテーションは、3次元空間データを専門のディープニューラルネットワークと直接統合することで実現できる。
本研究では, NVIDIA Jetson プラットフォーム上でのリソース制約推論の性能と性能を解析し, 様々な3次元セマンティックセマンティックセマンティクス手法について検討する。
論文 参考訳(メタデータ) (2024-10-10T20:47:33Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。