論文の概要: ZeroScatter: Domain Transfer for Long Distance Imaging and Vision
through Scattering Media
- arxiv url: http://arxiv.org/abs/2102.05847v1
- Date: Thu, 11 Feb 2021 04:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:15:45.107973
- Title: ZeroScatter: Domain Transfer for Long Distance Imaging and Vision
through Scattering Media
- Title(参考訳): ZeroScatter: 散乱メディアによる長距離イメージングとビジョンのためのドメイン転送
- Authors: Zheng Shi, Ethan Tseng, Mario Bijelic, Werner Ritter, Felix Heide
- Abstract要約: 我々は、悪天候下で撮影されたRGBのみのキャプチャーを、晴れた昼間のシーンに変換するドメイン転送手法ZeroScatterを提案する。
提案手法は実世界キャプチャーを用いて評価し,提案手法は制御霧室測定において既存の単分子脱散乱法を2.8dBPSNRで上回る性能を示した。
- 参考スコア(独自算出の注目度): 26.401067775059154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adverse weather conditions, including snow, rain, and fog pose a challenge
for both human and computer vision in outdoor scenarios. Handling these
environmental conditions is essential for safe decision making, especially in
autonomous vehicles, robotics, and drones. Most of today's supervised imaging
and vision approaches, however, rely on training data collected in the real
world that is biased towards good weather conditions, with dense fog, snow, and
heavy rain as outliers in these datasets. Without training data, let alone
paired data, existing autonomous vehicles often limit themselves to good
conditions and stop when dense fog or snow is detected. In this work, we tackle
the lack of supervised training data by combining synthetic and indirect
supervision. We present ZeroScatter, a domain transfer method for converting
RGB-only captures taken in adverse weather into clear daytime scenes.
ZeroScatter exploits model-based, temporal, multi-view, multi-modal, and
adversarial cues in a joint fashion, allowing us to train on unpaired, biased
data. We assess the proposed method using real-world captures, and the proposed
method outperforms existing monocular de-scattering approaches by 2.8 dB PSNR
on controlled fog chamber measurements.
- Abstract(参考訳): 雪、雨、霧などの逆の気象条件は、屋外のシナリオにおける人間とコンピュータの両方の視界に課題をもたらす。
これらの環境条件を扱うことは、特に自動運転車、ロボティクス、ドローンなど、安全な意思決定に不可欠である。
しかし今日の監視された画像と視覚のアプローチのほとんどは、これらのデータセットの異常値として濃霧、雪、豪雨など、良質な気象条件に偏った実世界で収集されたトレーニングデータに依存している。
トレーニングデータがなければ、ペアリングデータだけでなく、既存の自動運転車はしばしば良好な条件に制限され、濃霧や雪が検出されると停止します。
本研究では,合成と間接を組み合わせることで,教師付きトレーニングデータの欠如に対処した。
我々は、悪天候下で撮影されたRGBのみのキャプチャーを、晴れた昼間のシーンに変換するドメイン転送手法ZeroScatterを提案する。
ZeroScatterは、モデルベース、テンポラル、マルチビュー、マルチモーダル、および敵対的キューを共同で活用し、無対の偏見のないデータのトレーニングを可能にします。
提案手法は実世界捕捉法を用いて評価し,制御フォグチャンバー測定において2.8dbpsnrで既存の単眼非散乱法を上回った。
関連論文リスト
- Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - ContextualFusion: Context-Based Multi-Sensor Fusion for 3D Object Detection in Adverse Operating Conditions [1.7537812081430004]
本研究では,3次元物体検出モデルにカメラやライダーの知識を取り入れたContextualFusionという手法を提案する。
我々の手法は、文脈バランスの取れた合成データセットの最先端手法に対して6.2%のmAP改善をもたらす。
本手法は,実世界のNuScenesデータセット上での夜間の3D対物性能を11.7%向上させる。
論文 参考訳(メタデータ) (2024-04-23T06:37:54Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Multimodal End-to-End Learning for Autonomous Steering in Adverse Road
and Weather Conditions [0.0]
自動ステアリングにおけるエンド・ツー・エンドの学習に関するこれまでの研究を,マルチモーダルデータを用いた有害な実生活環境での運用に拡張する。
道路および気象条件下で28時間の運転データを収集し,車両のハンドル角度を予測するために畳み込みニューラルネットワークを訓練した。
論文 参考訳(メタデータ) (2020-10-28T12:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。