論文の概要: DMRVisNet: Deep Multi-head Regression Network for Pixel-wise Visibility
Estimation Under Foggy Weather
- arxiv url: http://arxiv.org/abs/2112.04278v1
- Date: Wed, 8 Dec 2021 13:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 19:24:05.424966
- Title: DMRVisNet: Deep Multi-head Regression Network for Pixel-wise Visibility
Estimation Under Foggy Weather
- Title(参考訳): DMRVisNet:フォッギー気象下での画素ワイズ可視性推定のための深層多頭部回帰ネットワーク
- Authors: Jing You, Shaocheng Jia, Xin Pei, and Danya Yao
- Abstract要約: 霧は、一般的な気象の一種として、特に山岳地帯において、現実世界に頻繁に現れる。
現在の方法では、道路上の固定位置に配置されたプロの楽器を使用して視界測定を行う。
可視性を推定するために、革新的なエンドツーエンドの畳み込みニューラルネットワークフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scene perception is essential for driving decision-making and traffic safety.
However, fog, as a kind of common weather, frequently appears in the real
world, especially in the mountain areas, making it difficult to accurately
observe the surrounding environments. Therefore, precisely estimating the
visibility under foggy weather can significantly benefit traffic management and
safety. To address this, most current methods use professional instruments
outfitted at fixed locations on the roads to perform the visibility
measurement; these methods are expensive and less flexible. In this paper, we
propose an innovative end-to-end convolutional neural network framework to
estimate the visibility leveraging Koschmieder's law exclusively using the
image data. The proposed method estimates the visibility by integrating the
physical model into the proposed framework, instead of directly predicting the
visibility value via the convolutional neural work. Moreover, we estimate the
visibility as a pixel-wise visibility map against those of previous visibility
measurement methods which solely predict a single value for an entire image.
Thus, the estimated result of our method is more informative, particularly in
uneven fog scenarios, which can benefit to developing a more precise early
warning system for foggy weather, thereby better protecting the intelligent
transportation infrastructure systems and promoting its development. To
validate the proposed framework, a virtual dataset, FACI, containing 3,000
foggy images in different concentrations, is collected using the AirSim
platform. Detailed experiments show that the proposed method achieves
performance competitive to those of state-of-the-art methods.
- Abstract(参考訳): シーン認識は意思決定と交通安全の推進に不可欠である。
しかし、霧は一般的な気象の一種として、特に山岳地帯の現実世界に頻繁に現れるため、周囲の環境を正確に観察することは困難である。
したがって、霧の天候下での視界を正確に推定することは、交通管理と安全に大きな利益をもたらす。
これを解決するため、現在のほとんどの方法は道路上の固定位置に配置されたプロの楽器を使用して可視性の測定を行う。
本稿では,画像データのみを用いたKoschmieder法則の可視性を推定する,革新的なエンドツーエンド畳み込みニューラルネットワークフレームワークを提案する。
提案手法は,畳み込みニューラルワークによる可視性を直接予測する代わりに,物理モデルとフレームワークの統合により可視性を推定する。
さらに,画像全体に対する単一の値のみを予測した従来の可視性測定手法に対して,画素単位の可視性マップとして可視性を推定する。
したがって, この手法の予測結果は, 特に霧のシナリオにおいて, より正確な早期警報システムの開発に有効であり, これにより, インテリジェントな交通インフラの保護と開発の促進に寄与すると考えられる。
このフレームワークを検証するために、異なる濃度で3000のフォギーイメージを含む仮想データセットfaciをairsimプラットフォームを使用して収集する。
詳細な実験により,提案手法は最先端手法と競合する性能を示す。
関連論文リスト
- Vision-Driven 2D Supervised Fine-Tuning Framework for Bird's Eye View Perception [20.875243604623723]
視覚的2次元意味認識に基づくBEV知覚ネットワークの微調整手法を提案する。
2次元認識技術の成熟と発展を考えると,この手法は低コストなLiDAR基底真理への依存を著しく低減する。
論文 参考訳(メタデータ) (2024-09-09T17:40:30Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Spatial-temporal Vehicle Re-identification [3.7748602100709534]
信頼性の高いカメラネットワークトポロジを推定する空間時空間車両ReIDフレームワークを提案する。
提案手法に基づいて,公開データセット(VeRi776)において,ランク1の精度の99.64%向上した。
論文 参考訳(メタデータ) (2023-09-03T13:07:38Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Sensor Visibility Estimation: Metrics and Methods for Systematic
Performance Evaluation and Improvement [0.0]
可視性推定器の性能を評価するためのメトリクスとフレームワークを紹介する。
我々のメトリクスは、インフラレーダーやカメラからの実世界のラベルとシミュレーションデータで検証されます。
計測値を適用し,センサとオブジェクトの3次元標高をモデル化することにより,レーダとカメラの可視性の推定値を強化する。
論文 参考訳(メタデータ) (2022-11-11T16:17:43Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - RV-FuseNet: Range View Based Fusion of Time-Series LiDAR Data for Joint
3D Object Detection and Motion Forecasting [13.544498422625448]
本稿では,共同検出と軌道推定のための新しいエンドツーエンドアプローチであるRV-FuseNetを提案する。
広範に使用されている鳥眼ビュー(BEV)表現の代わりに,LiDARデータのネイティブレンジビュー(RV)表現を利用する。
提案手法は,既存の最先端技術よりも動作予測性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2020-05-21T19:22:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。