論文の概要: Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer
- arxiv url: http://arxiv.org/abs/2105.05011v1
- Date: Tue, 11 May 2021 13:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:55:47.816289
- Title: Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer
- Title(参考訳): 明るみにしよう: 夜間の移動を保存できる詳細情報による交通監視の改善
- Authors: Lan Fu, Hongkai Yu, Felix Juefei-Xu, Jinlong Li, Qing Guo, and Song
Wang
- Abstract要約: 画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
- 参考スコア(独自算出の注目度): 19.33490492872067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, image and video surveillance have made considerable
progresses to the Intelligent Transportation Systems (ITS) with the help of
deep Convolutional Neural Networks (CNNs). As one of the state-of-the-art
perception approaches, detecting the interested objects in each frame of video
surveillance is widely desired by ITS. Currently, object detection shows
remarkable efficiency and reliability in standard scenarios such as daytime
scenes with favorable illumination conditions. However, in face of adverse
conditions such as the nighttime, object detection loses its accuracy
significantly. One of the main causes of the problem is the lack of sufficient
annotated detection datasets of nighttime scenes. In this paper, we propose a
framework to alleviate the accuracy decline when object detection is taken to
adverse conditions by using image translation method. We propose to utilize
style translation based StyleMix method to acquire pairs of day time image and
nighttime image as training data for following nighttime to daytime image
translation. To alleviate the detail corruptions caused by Generative
Adversarial Networks (GANs), we propose to utilize Kernel Prediction Network
(KPN) based method to refine the nighttime to daytime image translation. The
KPN network is trained with object detection task together to adapt the trained
daytime model to nighttime vehicle detection directly. Experiments on vehicle
detection verified the accuracy and effectiveness of the proposed approach.
- Abstract(参考訳): 近年、画像とビデオの監視は、深層畳み込みニューラルネットワーク(CNN)の助けを借りて、インテリジェントトランスポーテーションシステム(ITS)にかなりの進歩を遂げている。
最先端の知覚アプローチの1つとして,映像監視の各フレーム内の関心対象の検出が広く望まれている。
現在、オブジェクト検出は、照明条件の良い昼間シーンのような標準シナリオにおいて、顕著な効率性と信頼性を示している。
しかし、夜間などの悪条件に直面した場合、物体検出の精度は著しく低下する。
問題の主な原因の1つは、夜間シーンの十分な注釈付き検出データセットがないことである。
本稿では,画像翻訳手法を用いて,物体検出を悪条件にとる際の精度低下を緩和する枠組みを提案する。
本稿では,スタイル翻訳に基づくスタイルミックス手法を用いて,昼画像と夜画像のペアを学習データとして取得し,夜画像から昼画像への翻訳を行う。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
kpnネットワークはオブジェクト検出タスクと共に訓練され、トレーニングされた昼間モデルを直接夜間車両検出に適応させる。
車両検出実験により提案手法の精度と有効性が確認された。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Seeing BDD100K in dark: Single-Stage Night-time Object Detection via
Continual Fourier Contrastive Learning [3.4012007729454816]
夜間物体検出は、限られた論文のうち、一様でない評価プロトコルを通して、わずかにのみ研究されている。
本稿では,これら3つのギャップを橋渡しする。
均一な評価プロトコルの欠如(その有効性と効率のため、単段検出器を使用する)。
夜間オブジェクト検出のベンチマークのためのデータセットの選択。
現在の選択肢の限界に対処する新しい方法。
論文 参考訳(メタデータ) (2021-12-06T09:28:45Z) - Mutual-GAN: Towards Unsupervised Cross-Weather Adaptation with Mutual
Information Constraint [32.67453558911618]
畳み込みニューラルネットワーク(CNN)はセマンティックセグメンテーション(セマンティックセグメンテーション)の成功を証明している。
現実的な応用では、屋外の天気と照明は、例えば、曇りや夜間のように変更可能であり、CNNの日中のデータでのみ訓練されたセマンティックセマンティックセマンティクスの精度が著しく低下する。
本研究では,悪天候下で撮影された映像に対して,日中トレーニングニューラルネットワークを適用した場合の精度低下を軽減するために,新たな生成逆ネットワーク(Mutual-GAN)を提案する。
論文 参考訳(メタデータ) (2021-06-30T11:44:22Z) - Content-Based Detection of Temporal Metadata Manipulation [91.34308819261905]
画像の撮像時間とその内容と地理的位置とが一致しているかどうかを検証するためのエンドツーエンドのアプローチを提案する。
中心となる考え方は、画像の内容、キャプチャ時間、地理的位置が一致する確率を予測するための教師付き一貫性検証の利用である。
我々のアプローチは、大規模なベンチマークデータセットの以前の作業により改善され、分類精度が59.03%から81.07%に向上した。
論文 参考訳(メタデータ) (2021-03-08T13:16:19Z) - Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation [17.067988025947024]
我々は、制約のないRGB単眼の夜間画像から画素ごとの深度マップを推定する問題を考察する。
夜間画像でテストした場合、最先端の昼時間深度推定法は不幸にも失敗する。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として取り上げ,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-10-03T17:55:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。