論文の概要: ClearVision: Leveraging CycleGAN and SigLIP-2 for Robust All-Weather Classification in Traffic Camera Imagery
- arxiv url: http://arxiv.org/abs/2504.19684v1
- Date: Mon, 28 Apr 2025 11:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.410185
- Title: ClearVision: Leveraging CycleGAN and SigLIP-2 for Robust All-Weather Classification in Traffic Camera Imagery
- Title(参考訳): ClearVision: 交通カメラ画像におけるロバストな全天候分類のためのCycleGANとSigLIP-2の活用
- Authors: Anush Lakshman Sivaraman, Kojo Adu-Gyamfi, Ibne Farabi Shihab, Anuj Sharma,
- Abstract要約: 本稿では、生成ドメイン適応と効率的なコントラスト学習を組み合わせて、分類性能を向上させるスケーラブルなフレームワークを提案する。
そこで,CycleGANをベースとしたドメイン翻訳により,夜間画像の品質が向上し,下流モデルによる特徴抽出が向上した。
- 参考スコア(独自算出の注目度): 1.9953114232105387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate weather classification from low-quality traffic camera imagery remains a challenging task, particularly under adverse nighttime conditions. In this study, we propose a scalable framework that combines generative domain adaptation with efficient contrastive learning to enhance classification performance. Using CycleGAN-based domain translation, we improve the quality of nighttime images, enabling better feature extraction by downstream models. While the baseline EVA-02 model employing CLIP-based contrastive loss achieves an overall accuracy of 96.55\%, it exhibits a significant performance gap between daytime (97.21\%) and nighttime conditions (63.40\%). Replacing CLIP with the lightweight SigLIP-2 (Sigmoid contrastive loss) achieves a competitive overall accuracy of 94.00\%, with substantial improvements in nighttime performance (85.90\% accuracy). The combination of Vision-SigLIP-2, Text-SigLIP-2, CycleGAN, and contrastive training achieves the best nighttime accuracy (85.90\%) among all models tested, while EVA-02 with CycleGAN maintains the highest overall accuracy (97.01\%) and per-class accuracies. These findings demonstrate the potential of combining domain adaptation and efficient contrastive learning to build practical, resource-efficient weather classification systems for intelligent transportation infrastructure.
- Abstract(参考訳): 低品質の交通カメラ画像からの正確な天気分類は、特に夜間の悪条件下では難しい課題である。
本研究では、生成領域適応と効率的なコントラスト学習を組み合わせて、分類性能を向上させるスケーラブルなフレームワークを提案する。
そこで,CycleGANをベースとしたドメイン翻訳により,夜間画像の品質が向上し,下流モデルによる特徴抽出が向上した。
CLIPベースのコントラスト損失を用いたVA-02モデルは、全体的な精度は96.55\%に達するが、昼間(97.21\%)と夜間(63.40\%)の間には顕著な性能差がある。
軽量なSigLIP-2(Sigmoid contrastive loss)でCLIPをリプレースすることで、夜間性能(85.90\%)が大幅に向上した94.00\%の競争的総合精度が得られる。
Vision-SigLIP-2(英語版)、Text-SigLIP-2(英語版)、CycleGAN(英語版)、およびコントラストトレーニングの組み合わせはテストされた全てのモデルの中で最高の夜間精度(85.90\%)を達成し、EVA-02とCycleGANは最も高い総合精度(97.01\%)とクラスごとの精度を維持している。
これらの知見は、知的交通インフラのための実用的で資源効率の良い気象分類システムを構築するために、ドメイン適応と効率的なコントラスト学習を組み合わせる可能性を示している。
関連論文リスト
- PRE-Mamba: A 4D State Space Model for Ultra-High-Frequent Event Camera Deraining [47.81253972389206]
イベントカメラは高時間分解能とダイナミックレンジで優れるが、降雨条件下では高密度ノイズに悩まされる。
イベントデライニングのための新しいポイントベースカメラフレームワークであるPre-Mambaを提案する。
論文 参考訳(メタデータ) (2025-05-08T14:52:45Z) - Segregation and Context Aggregation Network for Real-time Cloud Segmentation [16.33805395655703]
地上のスカイ/クラウドセグメンテーションは、さらなる特徴分析のために雲を抽出する。
SCANetは、新しい軽量クラウドセグメンテーションモデルである。
SCANetは、計算の複雑さを大幅に減らしながら、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-04-19T04:47:59Z) - Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - CLIPure: Purification in Latent Space via CLIP for Adversarially Robust Zero-Shot Classification [65.46685389276443]
画像とテキストプロンプトをマッチングすることでゼロショット分類を行うことができる、視覚言語で事前訓練されたエンコーダモデルであるCLIPについて検討する。
次に, 共分散精製プロセス間のKL分散として精製リスクを定式化する。
画像の潜伏ベクトルの確率をモデル化するCLI-Diffと、画像の埋め込みとaの写真とのコサイン類似度をモデル化するCLI-Cosの2つのバリエーションを提案する。
論文 参考訳(メタデータ) (2025-02-25T13:09:34Z) - WARLearn: Weather-Adaptive Representation Learning [4.5035146256368455]
WARLearnは、挑戦的かつ敵対的な気象条件下で適応的な表現学習のために設計された新しいフレームワークである。
本手法は霧と低照度を特徴とするシナリオにおいて顕著な性能向上を示す。
論文 参考訳(メタデータ) (2024-11-21T13:00:30Z) - Real-Time Weather Image Classification with SVM [3.842565887299043]
本稿では,画像中の気象条件を,雨,低照,迷路,クリアの4つのカテゴリに分類する。
この作業の動機は、自動化システムの信頼性と効率性を改善する必要性にある。
論文 参考訳(メタデータ) (2024-09-01T19:41:35Z) - An Experimental Study on Exploring Strong Lightweight Vision Transformers via Masked Image Modeling Pre-Training [51.622652121580394]
Masked Image Modeling (MIM) Pre-training for Large-scale Vision Transformer (ViTs) は、学習した自己教師型ViT機能に加えて、下流での有望なパフォーマンスを実現する。
本稿では,テキストテキストレメリーで軽量なViTの微調整性能が,この事前学習パラダイムの恩恵を受けるかどうかを問う。
バニラ/階層設計(5.7M$/6.5M$)による純軽量ViTの蒸留による事前トレーニングは、ImageNet-1で79.4%$/78.9%の精度で達成できる。
論文 参考訳(メタデータ) (2024-04-18T14:14:44Z) - Hierarchical-level rain image generative model based on GAN [4.956959291938016]
階層レベルの降雨画像生成モデルである雨条件型CycleGANを構築した。
条件付きGANでは、異なる降雨強度がラベルとして導入されている。
モデル構造を最適化し、モード崩壊の問題を緩和するためにトレーニング戦略を調整する。
論文 参考訳(メタデータ) (2023-09-06T12:59:52Z) - Improving Panoptic Segmentation for Nighttime or Low-Illumination Urban
Driving Scenes [0.0]
そこで本研究では,Panopticセグメンテーションの性能とロバスト性を改善するための2つの新しい手法を提案する。
悪い結果の要因の1つは、都会の運転シーンに十分な、正確にアノテートされた夜間画像がないことである。
提案手法はCycleGANを用いて,既存の汎視的アノテーションを用いた昼間画像から夜間画像への変換を行う。
その後、照明条件や夜間条件下での性能と堅牢性を向上させるために、パノプティカルセグメンテーションモデルを再訓練するために使用される。
論文 参考訳(メタデータ) (2023-06-23T18:14:26Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - LUT-GCE: Lookup Table Global Curve Estimation for Fast Low-light Image
Enhancement [62.17015413594777]
LUT-GCEという低照度画像強調のための効果的かつ効率的な手法を提案する。
画像全体に対する大域的な曲線を推定し、被曝と過剰露光の両方の補正を可能にする。
我々のアプローチは、特に高精細画像(例えば1080pと4k)において、推論速度の観点から、技術の現状よりも優れています。
論文 参考訳(メタデータ) (2023-06-12T12:53:06Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Getting More Juice Out of Your Data: Hard Pair Refinement Enhances Visual-Language Models Without Extra Data [122.282521548393]
コントラスト言語-画像事前学習 (CLIP) は, クロスモーダルな画像-テキスト表現学習の標準となっている。
HELIPは、CLIPモデルを改善するためのコスト効率のよい戦略であり、継続的なトレーニングにおいて既存のデータセット内の挑戦的なテキストイメージペアを利用することで、CLIPモデルを改善する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - CLIP Itself is a Strong Fine-tuner: Achieving 85.7% and 88.0% Top-1
Accuracy with ViT-B and ViT-L on ImageNet [139.56863124214905]
CLIPの微調整性能はかなり過小評価されている。
具体的には、CLIP ViT-Base/16とCLIP ViT-Large/14は、ImageNet-1KデータセットのTop-1精度を85.7%、88.0%微調整することができる。
論文 参考訳(メタデータ) (2022-12-12T18:59:59Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - TransWeather: Transformer-based Restoration of Images Degraded by
Adverse Weather Conditions [77.20136060506906]
トランスウェザー (TransWeather) は1つのエンコーダとデコーダしか持たない変圧器を用いたエンド・ツー・エンドモデルである。
TransWeatherは、All-in-Oneネットワーク上で、複数のテストデータセット間で大幅に改善されている。
実世界のテスト画像で検証され、従来の方法よりも効果的であることが判明した。
論文 参考訳(メタデータ) (2021-11-29T18:57:09Z) - MIO : Mutual Information Optimization using Self-Supervised Binary Contrastive Learning [12.365801596593936]
我々は、事前学習タスクを二項分類問題としてモデル化し、暗黙的なコントラスト効果を誘導する。
既存の手法とは異なり、提案した損失関数は正対と負対の相互情報を最適化する。
提案手法は,ベンチマークデータセット上でのSOTA自己教師型コントラストフレームワークよりも優れている。
論文 参考訳(メタデータ) (2021-11-24T17:51:29Z) - Bi-Mix: Bidirectional Mixing for Domain Adaptive Nighttime Semantic
Segmentation [83.97914777313136]
自律運転では、様々な環境条件に適応できるセグメンテーションモデルを学ぶことが重要である。
本稿では,識別型夜間モデル学習を目的としたDANSS(Domain Adaptive Nighttime Semantic)の問題点について考察する。
本稿では,DANSS のための新しい Bi-Mix フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-19T17:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。