論文の概要: Event-RGB Fusion for Spacecraft Pose Estimation Under Harsh Lighting
- arxiv url: http://arxiv.org/abs/2507.05698v1
- Date: Tue, 08 Jul 2025 06:11:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.639913
- Title: Event-RGB Fusion for Spacecraft Pose Estimation Under Harsh Lighting
- Title(参考訳): ハーシュ照明下での宇宙空間推定のためのイベントRGB核融合
- Authors: Mohsi Jawaid, Marcus Märtens, Tat-Jun Chin,
- Abstract要約: 宇宙船のポーズ推定は、ランデブー、ドッキング、軌道上でのサービスなど、自律的な宇宙での運用に不可欠である。
視覚に基づくポーズ推定法は、通常RGBイメージングセンサーを使用するが、厳しい照明条件に悩まされている。
本研究は,RGBとイベントセンサを組み合わせたセンサ融合手法を提案する。
- 参考スコア(独自算出の注目度): 20.59391413816475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spacecraft pose estimation is crucial for autonomous in-space operations, such as rendezvous, docking and on-orbit servicing. Vision-based pose estimation methods, which typically employ RGB imaging sensors, is a compelling solution for spacecraft pose estimation, but are challenged by harsh lighting conditions, which produce imaging artifacts such as glare, over-exposure, blooming and lens flare. Due to their much higher dynamic range, neuromorphic or event sensors are more resilient to extreme lighting conditions. However, event sensors generally have lower spatial resolution and suffer from reduced signal-to-noise ratio during periods of low relative motion. This work addresses these individual sensor limitations by introducing a sensor fusion approach combining RGB and event sensors. A beam-splitter prism was employed to achieve precise optical and temporal alignment. Then, a RANSAC-based technique was developed to fuse the information from the RGB and event channels to achieve pose estimation that leveraged the strengths of the two modalities. The pipeline was complemented by dropout uncertainty estimation to detect extreme conditions that affect either channel. To benchmark the performance of the proposed event-RGB fusion method, we collected a comprehensive real dataset of RGB and event data for satellite pose estimation in a laboratory setting under a variety of challenging illumination conditions. Encouraging results on the dataset demonstrate the efficacy of our event-RGB fusion approach and further supports the usage of event sensors for spacecraft pose estimation. To support community research on this topic, our dataset will be released publicly.
- Abstract(参考訳): 宇宙船のポーズ推定は、ランデブー、ドッキング、軌道上でのサービスなど、自律的な宇宙での運用に不可欠である。
視覚に基づくポーズ推定法は、通常RGBイメージングセンサーを用いるが、宇宙船のポーズ推定には魅力的なソリューションであるが、光沢、過剰露光、開花、レンズフレアといった画像のアーティファクトを生成する厳しい照明条件に悩まされている。
非常に高いダイナミックレンジのため、ニューロモルフィックまたはイベントセンサーは極端な照明条件に対してより弾力性がある。
しかし、イベントセンサは一般に空間分解能が低く、相対運動が低い期間に信号対雑音比が低下する。
この研究は、RGBとイベントセンサーを組み合わせたセンサー融合アプローチを導入することで、これらのセンサーの制約に対処する。
正確な光学的および時間的アライメントを達成するためにビームスプリッタープリズムが用いられた。
そして、RGBとイベントチャネルからの情報を融合して、2つのモードの強みを利用したポーズ推定を実現するRANSACベースの手法を開発した。
パイプラインは、いずれのチャネルにも影響を及ぼす極端な条件を検出するために、ドロップアウトの不確実性推定によって補完された。
提案手法の性能をベンチマークするために,様々な難解な照明条件下で,RGBの総合的な実データと衛星ポーズ推定のためのイベントデータを収集した。
また, 衛星の姿勢推定にイベントセンサを用いることで, イベント・RGB融合手法の有効性を実証した。
このトピックに関するコミュニティ調査を支援するため、私たちのデータセットを公開します。
関連論文リスト
- RASMD: RGB And SWIR Multispectral Driving Dataset for Robust Perception in Adverse Conditions [0.3141085922386211]
短波長赤外線(SWIR)イメージングは、NIRとLWIRに対していくつかの利点がある。
現在の自律走行アルゴリズムは可視光スペクトルに大きく依存しており、悪条件下での性能劣化を招きやすい。
RGB と SWIR のマルチスペクトル駆動データセットを導入し,RGB-SWIR 画像ペアの同期化と空間整合化を実現した。
論文 参考訳(メタデータ) (2025-04-10T09:54:57Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Chasing Day and Night: Towards Robust and Efficient All-Day Object Detection Guided by an Event Camera [8.673063170884591]
EOLOは、RGBとイベントモダリティの両方を融合させることで、堅牢で効率的な全日検出を実現する、新しいオブジェクト検出フレームワークである。
我々のEOLOフレームワークは、イベントの非同期特性を効率的に活用するために、軽量スパイキングニューラルネットワーク(SNN)に基づいて構築されている。
論文 参考訳(メタデータ) (2023-09-17T15:14:01Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Attentive Multimodal Fusion for Optical and Scene Flow [24.08052492109655]
既存の方法は通常、RGB画像のみに依存するか、後段のモダリティを融合させる。
本稿では,センサモード間の早期情報融合を可能にするFusionRAFTという新しいディープニューラルネットワーク手法を提案する。
提案手法は,RGB画像に影響を及ぼすノイズや低照度条件の存在下での堅牢性の向上を示す。
論文 参考訳(メタデータ) (2023-07-28T04:36:07Z) - EVEN: An Event-Based Framework for Monocular Depth Estimation at Adverse
Night Conditions [14.390463371184566]
様々な悪天候・光・異なる道路条件が存在する夜間の単眼深度推定について検討した。
我々は、RGBソースの低照度化を統合し、RGBとイベントデータの利点を活用するイベントビジョンベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-08T03:35:47Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。