論文の概要: ProvRain: Rain-Adaptive Denoising and Vehicle Detection via MobileNet-UNet and Faster R-CNN
- arxiv url: http://arxiv.org/abs/2512.00073v1
- Date: Mon, 24 Nov 2025 18:40:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.039353
- Title: ProvRain: Rain-Adaptive Denoising and Vehicle Detection via MobileNet-UNet and Faster R-CNN
- Title(参考訳): ProvRain:MobileNet-UNetと高速R-CNNによる降雨適応型騒音検出
- Authors: Aswinkumar Varathakumaran, Nirmala Paramanandham,
- Abstract要約: ProvRainは、堅牢な気象条件に一般化するために調整された軽量なMobileNet-U-Netアーキテクチャである。
システムは8.94%の精度向上と10.25%のリコールを達成している。
- 参考スコア(独自算出の注目度): 0.19116784879310023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Provident vehicle detection has a lot of scope in the detection of vehicle during night time. The extraction of features other than the headlamps of vehicles allows us to detect oncoming vehicles before they appear directly on the camera. However, it faces multiple issues especially in the field of night vision, where a lot of noise caused due to weather conditions such as rain or snow as well as camera conditions. This paper focuses on creating a pipeline aimed at dealing with such noise while at the same time maintaining the accuracy of provident vehicular detection. The pipeline in this paper, ProvRain, uses a lightweight MobileNet-U-Net architecture tuned to generalize to robust weather conditions by using the concept of curricula training. A mix of synthetic as well as available data from the PVDN dataset is used for this. This pipeline is compared to the base Faster RCNN architecture trained on the PVDN dataset to see how much the addition of a denoising architecture helps increase the detection model's performance in rainy conditions. The system boasts an 8.94\% increase in accuracy and a 10.25\% increase in recall in the detection of vehicles in rainy night time frames. Similarly, the custom MobileNet-U-Net architecture that was trained also shows a 10-15\% improvement in PSNR, a 5-6\% increase in SSIM, and upto a 67\% reduction in perceptual error (LPIPS) compared to other transformer approaches.
- Abstract(参考訳): 有効車両検出は、夜間に車両を検知する範囲が広い。
車両のヘッドランプ以外の特徴の抽出により、カメラに直接現れる前に、対向車を検出することができる。
しかし、特に夜間視覚の分野では、雨や雪などの気象条件やカメラ条件によって発生する多くのノイズに直面する複数の問題に直面している。
本稿では,そのような騒音に対処するパイプラインの構築と,供給車体検出の精度の維持に焦点をあてる。
本稿のパイプラインであるProvRainは,キュリキュラトレーニングの概念を用いて,ロバストな気象条件を一般化するために,軽量なMobileNet-U-Netアーキテクチャを使用している。
PVDNデータセットからの合成データと利用可能なデータの混合がこれに使用される。
このパイプラインは、PVDNデータセットでトレーニングされたより高速なRCNNアーキテクチャと比較され、デノナイジングアーキテクチャの追加が、雨条件下での検出モデルのパフォーマンス向上にどの程度役立つかを確認する。
システムは精度が8.94\%上昇し、雨天時の車両検出では10.25\%上昇している。
同様に、トレーニングされたカスタムMobileNet-U-Netアーキテクチャは、PSNRが10~15倍改善され、SSIMが5~6倍向上し、他のトランスフォーマーアプローチと比較して、知覚エラー(LPIPS)が67倍削減された。
関連論文リスト
- A Dynamic Transformer Network for Vehicle Detection [57.4144097001218]
車両検出のための動的トランスフォーマーネットワーク(DTNet)を提案する。
DTNetは動的畳み込みを利用してディープネットワークを誘導し、重量を動的に生成し、得られた検出器の適応性を高める。
画像アカウントにおける差の欠点を克服するため、変換変分畳み込みは、取得した車両検出構造情報を洗練するために、空間的位置情報に依存する。
論文 参考訳(メタデータ) (2025-06-03T11:29:35Z) - Multi-Source Urban Traffic Flow Forecasting with Drone and Loop Detector Data [61.9426776237409]
ドローンが捉えたデータは、大規模都市ネットワークのための正確なマルチセンサー移動観測所を作ることができる。
単純なグラフベースモデルHiMSNetは、複数のデータモダリティと学習時間相関を統合するために提案されている。
論文 参考訳(メタデータ) (2025-01-07T03:23:28Z) - Is That Rain? Understanding Effects on Visual Odometry Performance for Autonomous UAVs and Efficient DNN-based Rain Classification at the Edge [1.8936798735951972]
最先端のローカルトラッキングと軌道計画は通常、飛行制御アルゴリズムにカメラセンサーを入力して実行される。
最先端のビジュアル・オドメトリーシステムでは, 1.5mの最悪ケース平均追跡誤差が可能であることを示す。
我々は、モバイルおよび制約されたデプロイメントシナリオに適したディープニューラルネットワークモデルのセットをトレーニングし、これらの雨の条件を効率的に正確に分類できる範囲を判断する。
論文 参考訳(メタデータ) (2024-07-17T15:47:25Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer [19.33490492872067]
画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T13:18:50Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。