論文の概要: Thermal infrared image based vehicle detection in low-level illumination
conditions using multi-level GANs
- arxiv url: http://arxiv.org/abs/2209.09808v2
- Date: Sun, 25 Jun 2023 07:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 00:48:23.683091
- Title: Thermal infrared image based vehicle detection in low-level illumination
conditions using multi-level GANs
- Title(参考訳): マルチレベルGANを用いた低レベル照明条件における熱赤外画像に基づく車両検出
- Authors: Shivom Bhargava, Sanjita Prajapati, and Pranamesh Chakraborty
- Abstract要約: 車両検出精度は、良照度条件ではかなり正確であるが、低照度条件では検出精度が劣る。
車両ヘッドライトやテールライトからの低照度とグラアの複合効果により、車両検出の失敗は最先端の物体検出モデルにより起こりやすい。
最先端のGANモデルは、赤外線画像から日中RGB画像に変換することにより、夜間における車両検出精度の向上を図っている。
- 参考スコア(独自算出の注目度): 3.3223482500639845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle detection accuracy is fairly accurate in good-illumination conditions
but susceptible to poor detection accuracy under low-light conditions. The
combined effect of low-light and glare from vehicle headlight or tail-light
results in misses in vehicle detection more likely by state-of-the-art object
detection models. However, thermal infrared images are robust to illumination
changes and are based on thermal radiation. Recently, Generative Adversarial
Networks (GANs) have been extensively used in image domain transfer tasks.
State-of-the-art GAN models have attempted to improve vehicle detection
accuracy in night-time by converting infrared images to day-time RGB images.
However, these models have been found to under-perform during night-time
conditions compared to day-time conditions, as day-time infrared images looks
different than night-time infrared images. Therefore, this study attempts to
alleviate this shortcoming by proposing three different approaches based on
combination of GAN models at two different levels that try to reduce the
feature distribution gap between day-time and night-time infrared images.
Quantitative analysis to compare the performance of the proposed models with
the state-of-the-art models has been done by testing the models using
state-of-the-art object detection models. Both the quantitative and qualitative
analyses have shown that the proposed models outperform the state-of-the-art
GAN models for vehicle detection in night-time conditions, showing the efficacy
of the proposed models.
- Abstract(参考訳): 車両検出精度は良好な照度条件では極めて高いが、低照度条件では検出精度が低くなる。
車両ヘッドライトやテールライトからの低照度とグラアの複合効果により、車両検出の失敗は最先端の物体検出モデルにより起こりやすい。
しかし、熱赤外画像は照明変化に頑健であり、熱放射に基づいている。
近年,画像ドメイン転送タスクにおいてGAN(Generative Adversarial Networks)が広く利用されている。
最先端のGANモデルは、赤外線画像から日中RGB画像に変換することにより、夜間における車両検出精度の向上を図っている。
しかし、これらのモデルは夜間の赤外線画像とは異なるように見えるため、日中の条件と比較して夜間の条件下では過小評価されることが判明している。
そこで本研究では,日時と夜間の赤外画像の特徴分布ギャップを低減するために,GANモデルと2つの異なるレベルを組み合わせた3つのアプローチを提案することにより,この欠点を軽減することを試みた。
提案モデルの性能を最先端モデルと比較するための定量的解析は,最先端オブジェクト検出モデルを用いてモデルをテストすることによって行った。
定量的および定性的な分析により,提案モデルが夜間の車両検出において最先端のganモデルよりも優れており,提案モデルの有効性が示された。
関連論文リスト
- SAR to Optical Image Translation with Color Supervised Diffusion Model [5.234109158596138]
本稿では,SAR画像をより分かりやすい光学画像に変換するために,革新的な生成モデルを提案する。
サンプリングプロセスでは,SARイメージを条件付きガイドとして使用し,カラーシフト問題に対処するために色管理を統合する。
論文 参考訳(メタデータ) (2024-07-24T01:11:28Z) - Feature Corrective Transfer Learning: End-to-End Solutions to Object Detection in Non-Ideal Visual Conditions [11.90136900277127]
障害シナリオにおけるオブジェクトのエンドツーエンド検出を容易にする新しい手法として,"Feature Corrective Transfer Learning"がある。
非理想画像は、初期理想RGBモデルと特徴マップを比較して処理される。
このアプローチは、直接特徴写像補正により、様々な条件にまたがってオブジェクト検出を行うモデルの能力を洗練させる。
論文 参考訳(メタデータ) (2024-04-17T09:58:53Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - Thermal to Visible Image Synthesis under Atmospheric Turbulence [67.99407460140263]
バイオメトリックスや監視では、低照度と夜間の条件下での撮像に熱画像モダリティがしばしば用いられる。
このような画像システムは、しばしば大気の乱れに悩まされ、撮像された画像に激しいぼやけや変形のアーチファクトをもたらす。
熱画像を直接可視光画像に変換するエンド・ツー・エンドの再構成法を提案する。
論文 参考訳(メタデータ) (2022-04-06T19:47:41Z) - Validation of object detection in UAV-based images using synthetic data [9.189702268557483]
UAVベースの検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを使用して検証されることが多い。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
論文 参考訳(メタデータ) (2022-01-17T20:56:56Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Object Detection in Thermal Spectrum for Advanced Driver-Assistance
Systems (ADAS) [0.5156484100374058]
熱赤外スペクトルにおける物体検出は、低照度条件と異なる気象条件においてより信頼性の高いデータソースを提供する。
本稿では,高度運転支援システム(ADAS)の7つの異なるクラスを用いたサーマルビジョンにおける最先端のオブジェクト・ビジョン・フレームワークの探索と適用について述べる。
公開データセット上のトレーニング済みネットワーク変種は、3つの異なるテストアプローチでテストデータ上で検証される。
訓練されたネットワークの有効性は、未冷却のLWIRプロトタイプ熱カメラで捉えたローカル収集された新しいテストデータで検証される。
論文 参考訳(メタデータ) (2021-09-20T21:38:55Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Sparse Needlets for Lighting Estimation with Spherical Transport Loss [89.52531416604774]
NeedleLightは、新しい照明推定モデルであり、必要に応じて照明を表現し、周波数領域と空間領域を共同で照明推定することができる。
大規模な実験により、NeedleLightは、最先端の手法と比較して、複数の評価指標で常に優れた照明推定を実現していることがわかった。
論文 参考訳(メタデータ) (2021-06-24T15:19:42Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z) - Bayesian Fusion for Infrared and Visible Images [26.64101343489016]
本稿では,赤外・可視画像のための新しいベイズ融合モデルを構築した。
我々は、融合画像が人間の視覚系を満たすようにすることを目指している。
従来の手法と比較して、新しいモデルは、高照度なターゲットとリッチテクスチャの詳細を持つより良い融合画像を生成することができる。
論文 参考訳(メタデータ) (2020-05-12T14:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。