論文の概要: Video Waterdrop Removal via Spatio-Temporal Fusion in Driving Scenes
- arxiv url: http://arxiv.org/abs/2302.05916v2
- Date: Wed, 15 Feb 2023 07:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 11:34:33.045941
- Title: Video Waterdrop Removal via Spatio-Temporal Fusion in Driving Scenes
- Title(参考訳): 運転場面における時空間融合による映像水滴除去
- Authors: Qiang Wen, Yue Wu, Qifeng Chen
- Abstract要約: 運転中のフロントガラスの水滴は、深刻な視覚障害を引き起こし、自動車事故を引き起こす可能性がある。
本研究では、複数のフレームから表現を融合させて、水滴に隠された視覚情報を復元するアテンションベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.16726447796844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The waterdrops on windshields during driving can cause severe visual
obstructions, which may lead to car accidents. Meanwhile, the waterdrops can
also degrade the performance of a computer vision system in autonomous driving.
To address these issues, we propose an attention-based framework that fuses the
spatio-temporal representations from multiple frames to restore visual
information occluded by waterdrops. Due to the lack of training data for video
waterdrop removal, we propose a large-scale synthetic dataset with simulated
waterdrops in complex driving scenes on rainy days. To improve the generality
of our proposed method, we adopt a cross-modality training strategy that
combines synthetic videos and real-world images. Extensive experiments show
that our proposed method can generalize well and achieve the best waterdrop
removal performance in complex real-world driving scenes.
- Abstract(参考訳): 運転中のフロントガラスの水滴は、視覚障害を引き起こし、自動車事故を引き起こす可能性がある。
一方、水滴は自律運転におけるコンピュータビジョンシステムの性能を低下させることもできる。
そこで本研究では,複数のフレームから時空間表現を融合し,水滴による視覚情報を復元する注意に基づくフレームワークを提案する。
映像水滴除去のためのトレーニングデータがないことから,雨天時の複雑な運転シーンにおける水滴シミュレーションを用いた大規模合成データセットを提案する。
提案手法の汎用性を向上させるため,合成ビデオと実世界の画像を組み合わせたクロスモーダルトレーニング戦略を採用した。
提案手法は,複雑な実世界の運転シーンにおいて,優れた水滴除去性能を実現することができることを示す。
関連論文リスト
- WayveScenes101: A Dataset and Benchmark for Novel View Synthesis in Autonomous Driving [4.911903454560829]
WayveScenes101は、新しいビュー合成において、コミュニティが技術の状態を前進させるのを助けるために設計されたデータセットである。
データセットは、幅広い環境条件と運転シナリオにわたる101の運転シーンで構成されている。
論文 参考訳(メタデータ) (2024-07-11T08:29:45Z) - DerainNeRF: 3D Scene Estimation with Adhesive Waterdrop Removal [12.099886168325012]
水滴により劣化した多視点画像から透明な3Dシーンを暗黙的に再構築する手法を提案する。
本手法は,水滴の位置を予測するためにアテンションネットワークを利用して,暗黙的に3Dシーンを復元するニューラルレージアンスフィールドを訓練する。
NeRFの強いシーン表現機能を活用することで,水滴を除去した高品質なノベルビュー画像をレンダリングすることができる。
論文 参考訳(メタデータ) (2024-03-29T06:58:57Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - EGVD: Event-Guided Video Deraining [57.59935209162314]
本稿では,ビデオデライニングのためのイベントカメラの可能性を解放するエンド・ツー・エンドの学習ネットワークを提案する。
雨の多いビデオと時間的に同期されたイベントストリームからなる現実世界のデータセットを構築します。
論文 参考訳(メタデータ) (2023-09-29T13:47:53Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - READ: Large-Scale Neural Scene Rendering for Autonomous Driving [21.144110676687667]
自律走行シーンを合成するために,大規模ニューラルレンダリング手法を提案する。
我々のモデルは現実的な運転シーンを合成できるだけでなく、運転シーンの縫い付けや編集もできる。
論文 参考訳(メタデータ) (2022-05-11T14:02:14Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。