論文の概要: EREBUS: End-to-end Robust Event Based Underwater Simulation
- arxiv url: http://arxiv.org/abs/2511.01381v1
- Date: Mon, 03 Nov 2025 09:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.200222
- Title: EREBUS: End-to-end Robust Event Based Underwater Simulation
- Title(参考訳): EREBUS: エンド・ツー・エンドのロバスト・イベントに基づく水中シミュレーション
- Authors: Hitesh Kyatham, Arjun Suresh, Aadi Palnitkar, Yiannis Aloimonos,
- Abstract要約: 本稿では,AUVに搭載されたイベントベースカメラのリアルな合成データを生成するパイプラインを提案する。
可視性が悪く,粒子状物質が懸濁した岩盤検出のタスクを用いて,パイプラインの有効性を実証した。
- 参考スコア(独自算出の注目度): 12.65103321991945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The underwater domain presents a vast array of challenges for roboticists and computer vision researchers alike, such as poor lighting conditions and high dynamic range scenes. In these adverse conditions, traditional vision techniques struggle to adapt and lead to suboptimal performance. Event-based cameras present an attractive solution to this problem, mitigating the issues of traditional cameras by tracking changes in the footage on a frame-by-frame basis. In this paper, we introduce a pipeline which can be used to generate realistic synthetic data of an event-based camera mounted to an AUV (Autonomous Underwater Vehicle) in an underwater environment for training vision models. We demonstrate the effectiveness of our pipeline using the task of rock detection with poor visibility and suspended particulate matter, but the approach can be generalized to other underwater tasks.
- Abstract(参考訳): 水中ドメインは、ロボット工学者やコンピュータビジョン研究者にも、照明条件の悪さや高ダイナミックレンジのシーンなど、数多くの課題を提示している。
このような悪条件下では、従来の視覚技術は適応に苦慮し、準最適性能をもたらす。
イベントベースのカメラは、この問題に対する魅力的な解決策を示し、フレーム単位で映像の変化を追跡することによって、従来のカメラの問題を緩和する。
本稿では,水中環境におけるAUV(Autonomous Underwater Vehicle)に搭載されたイベントベースカメラのリアルな合成データを生成するためのパイプラインを提案する。
可視性が悪く,粒子状物質が懸濁した岩盤検出タスクを用いたパイプラインの有効性を実証するが,他の水中タスクに一般化できる。
関連論文リスト
- Learning Underwater Active Perception in Simulation [51.205673783866146]
タービディティは、検査された構造物の正確な視覚的記録を阻止する可能性があるため、ミッション全体を危険に晒す可能性がある。
従来の研究は、濁度や後方散乱に適応する手法を導入してきた。
本研究では, 広範囲の水環境下での高品質な画像取得を実現するための, 単純かつ効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-23T06:48:38Z) - IBURD: Image Blending for Underwater Robotic Detection [17.217395753087157]
IBURDは水中の破片の画像とピクセルレベルのアノテーションの両方を生成する。
IBURDは透明なオブジェクトを任意の背景にしっかりとブレンドすることができる。
論文 参考訳(メタデータ) (2025-02-24T22:56:49Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - LU2Net: A Lightweight Network for Real-time Underwater Image Enhancement [4.353142366661057]
Lightweight Underwater Unet (LU2Net)は、水中画像のリアルタイムエンハンスメントのために設計された新しいU字型ネットワークである。
LU2Netは、現在最先端の水中画像強調法よりも8倍の速度で、十分に強化された水中画像を提供することができる。
論文 参考訳(メタデータ) (2024-06-21T08:33:13Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Video Waterdrop Removal via Spatio-Temporal Fusion in Driving Scenes [53.16726447796844]
運転中のフロントガラスの水滴は、深刻な視覚障害を引き起こし、自動車事故を引き起こす可能性がある。
本研究では、複数のフレームから表現を融合させて、水滴に隠された視覚情報を復元するアテンションベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-12T13:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。