論文の概要: Event-Based De-Snowing for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2507.20901v1
- Date: Fri, 25 Jul 2025 17:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.171294
- Title: Event-Based De-Snowing for Autonomous Driving
- Title(参考訳): 自律運転のためのイベントベースデソーシング
- Authors: Manasi Muglikar, Nico Messikommer, Marco Cannici, Davide Scaramuzza,
- Abstract要約: イベントカメラは、ミリ秒以下のレイテンシで圧縮された視覚情報を提供する。
グリーンスクリーン技術を用いて作成した新しいデータセットであるDSEC-Snowについて,本手法のベンチマークを行った。
提案手法は,PSNRの3dBによる画像再構成手法よりも優れていた。
- 参考スコア(独自算出の注目度): 22.565690325532003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adverse weather conditions, particularly heavy snowfall, pose significant challenges to both human drivers and autonomous vehicles. Traditional image-based de-snowing methods often introduce hallucination artifacts as they rely solely on spatial information, while video-based approaches require high frame rates and suffer from alignment artifacts at lower frame rates. Camera parameters, such as exposure time, also influence the appearance of snowflakes, making the problem difficult to solve and heavily dependent on network generalization. In this paper, we propose to address the challenge of desnowing by using event cameras, which offer compressed visual information with submillisecond latency, making them ideal for de-snowing images, even in the presence of ego-motion. Our method leverages the fact that snowflake occlusions appear with a very distinctive streak signature in the spatio-temporal representation of event data. We design an attention-based module that focuses on events along these streaks to determine when a background point was occluded and use this information to recover its original intensity. We benchmark our method on DSEC-Snow, a new dataset created using a green-screen technique that overlays pre-recorded snowfall data onto the existing DSEC driving dataset, resulting in precise ground truth and synchronized image and event streams. Our approach outperforms state-of-the-art de-snowing methods by 3 dB in PSNR for image reconstruction. Moreover, we show that off-the-shelf computer vision algorithms can be applied to our reconstructions for tasks such as depth estimation and optical flow, achieving a $20\%$ performance improvement over other de-snowing methods. Our work represents a crucial step towards enhancing the reliability and safety of vision systems in challenging winter conditions, paving the way for more robust, all-weather-capable applications.
- Abstract(参考訳): 逆気象条件、特に豪雪は、人間ドライバーと自動運転車の両方に重大な課題をもたらす。
従来の画像に基づく解答法では、空間情報のみに依存した幻覚アーティファクトをしばしば導入するが、ビデオベースのアプローチでは高いフレームレートが必要であり、低いフレームレートでアライメントアーティファクトに悩まされる。
露光時間などのカメラパラメータも雪片の外観に影響を与え、問題の解決が難しく、ネットワークの一般化に大きく依存する。
本稿では,1ミリ秒未満の遅延時間で圧縮された視覚情報を提供するイベントカメラを用いることで,エゴモーションの存在下でも画像の復号化に最適であることを示す。
本手法は,スノーフレーク・オクルージョンがイベントデータの時空間表現において,非常に特徴的なストリーク・シグネチャとともに現れるという事実を活用する。
我々は、これらのストリークに沿ったイベントに焦点を当てた注意ベースのモジュールを設計し、背景点がいつ隠されているかを判断し、この情報を用いて元の強度を回復する。
我々は,既存のDSEC運転データセットに事前記録した降雪データをオーバーレイするグリーンスクリーン技術を用いて作成した新しいデータセットであるDSEC-Snowについてベンチマークを行った。
提案手法は,PSNRの3dBによる画像再構成手法よりも優れていた。
さらに,市販のコンピュータビジョンアルゴリズムが,深度推定や光フローなどのタスクの再構築に応用できることを示し,他の解解法よりも20 %以上の性能向上を実現している。
我々の研究は、冬の条件に挑戦する際の視覚システムの信頼性と安全性を高めるための重要なステップであり、より堅牢で全天候対応のアプリケーションへの道を開いた。
関連論文リスト
- SaENeRF: Suppressing Artifacts in Event-based Neural Radiance Fields [12.428456822446947]
イベントカメラは低レイテンシ、低消費電力、低帯域幅、高ダイナミックレンジなどの利点を提供する。
イベントデータから幾何的に一貫性があり、測光的に正確な3D表現を再構築することは、基本的に困難である。
イベントストリームのみからの静的なシーンの3次元一貫性, 密度放射, フォトリアリスティックなNeRF再構成を可能にする, 新規な自己教師型フレームワークSaENeRFを提案する。
論文 参考訳(メタデータ) (2025-04-23T03:33:20Z) - Non-Uniform Exposure Imaging via Neuromorphic Shutter Control [9.519068512865463]
動作のぼやけを回避し,瞬時雑音を軽減する新しいニューロモルフィックシャッター制御(NSC)システムを提案する。
本稿では,SNR(Inconsistent Signal-to-Noise Ratio)を安定化させるために,自己教師付き学習パラダイム内でのイベントベース画像復調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:28:41Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - An Event-Oriented Diffusion-Refinement Method for Sparse Events
Completion [36.64856578682197]
イベントカメラまたはダイナミックビジョンセンサー(DVS)は、従来の強度フレームの代わりに輝度の変化に対する非同期応答を記録する。
本稿では,処理段階と出力形態の両方において,イベントデータのユニークな特性に適合するイベント完了シーケンス手法を提案する。
具体的には,イベントストリームを時間領域内の3次元イベントクラウドとして扱うとともに,高密度の雲を粗大に生成する拡散モデルを構築し,正確なタイムスタンプを復元して生データの時間分解を成功させる。
論文 参考訳(メタデータ) (2024-01-06T08:09:54Z) - Seeing Behind Dynamic Occlusions with Event Cameras [44.63007080623054]
一つの視点から背景を再構築する新しい手法を提案する。
私たちのソリューションは、従来のカメラとイベントカメラの組み合わせに初めて依存しています。
提案手法は, データセット上のPSNRにおいて, 3dBによる画像の描画方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-28T22:20:52Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。