論文の概要: TLDR: Traffic Light Detection using Fourier Domain Adaptation in Hostile WeatheR
- arxiv url: http://arxiv.org/abs/2411.07901v1
- Date: Tue, 12 Nov 2024 16:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:10.784240
- Title: TLDR: Traffic Light Detection using Fourier Domain Adaptation in Hostile WeatheR
- Title(参考訳): TLDR:宿主WeatheRにおけるフーリエ領域適応を用いた交通光検出
- Authors: Ishaan Gakhar, Aryesh Guha, Aryaman Gupta, Amit Agarwal, Durga Toshniwal, Ujjwal Verma,
- Abstract要約: 本稿では、LISAとS2TLDという2つの広く使われているデータセットを組み合わせることで、新しいアプローチを提案する。
FDAは、この最終データセットで訓練されたモデルが雨と霧の天候に適応するのを助ける。
実験の結果、FDAが強化した画像で訓練したモデルは、FDAなしで訓練したモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 4.792412997390758
- License:
- Abstract: The scarcity of comprehensive datasets in the traffic light detection and recognition domain and the poor performance of state-of-the-art models under hostile weather conditions present significant challenges. To address these issues, this paper proposes a novel approach by merging two widely used datasets, LISA and S2TLD. The merged dataset is further processed to tackle class imbalance, a common problem in this domain. This merged dataset becomes our source domain. Synthetic rain and fog are added to the dataset to create our target domain. We employ Fourier Domain Adaptation (FDA) to create a final dataset with a minimized domain gap between the two datasets, helping the model trained on this final dataset adapt to rainy and foggy weather conditions. Additionally, we explore Semi-Supervised Learning (SSL) techniques to leverage the available data more effectively. Experimental results demonstrate that models trained on FDA-augmented images outperform those trained without FDA across confidence-dependent and independent metrics, like mAP50, mAP50-95, Precision, and Recall. The best-performing model, YOLOv8, achieved a Precision increase of 5.1860%, Recall increase of 14.8009%, mAP50 increase of 9.5074%, and mAP50-95 increase of 19.5035%. On average, percentage increases of 7.6892% in Precision, 19.9069% in Recall, 15.8506% in mAP50, and 23.8099% in mAP50-95 were observed across all models, highlighting the effectiveness of FDA in mitigating the impact of adverse weather conditions on model performance. These improvements pave the way for real-world applications where reliable performance in challenging environmental conditions is critical.
- Abstract(参考訳): 交通信号検出・認識領域における包括的データセットの不足と、敵対的な気象条件下での最先端モデルの性能の低下は、重大な課題である。
これらの課題に対処するために,LISAとS2TLDという2つの広く使われているデータセットを組み合わせることで,新しいアプローチを提案する。
統合データセットは、この領域で一般的な問題であるクラス不均衡に取り組むためにさらに処理される。
この統合データセットは、私たちのソースドメインになります。
データセットに合成雨と霧を加えて、ターゲットドメインを作成します。
フーリエドメイン適応(FDA)を使用して、2つのデータセット間のドメインギャップを最小限に抑えた最終データセットを作成し、この最終データセットでトレーニングされたモデルが雨と霧の天候に適応するのに役立つ。
さらに、利用可能なデータをより効果的に活用するために、半教師付き学習(SSL)技術について検討する。
実験の結果、FDAが強化した画像でトレーニングされたモデルは、mAP50、mAP50-95、Precision、Recallなどの信頼性に依存した、独立したメトリクスで、FDAなしでトレーニングされたモデルよりも優れていた。
最高性能モデルのYOLOv8は5.1860%の精度向上、14.8009%のリコール、9.5074%のmAP50、19.5035%のmAP50-95の増加を達成した。
平均して7.6892%の精度、19.9069%のリコール、15.8506%のmAP50、23.8099%のmAP50-95が全てのモデルで観測された。
これらの改善は、挑戦的な環境条件における信頼性の高い性能が重要となる現実世界のアプリケーションへの道を開く。
関連論文リスト
- REFINE on Scarce Data: Retrieval Enhancement through Fine-Tuning via Model Fusion of Embedding Models [14.023953508288628]
検索拡張生成(RAG)パイプラインは、質問応答(QA)などのタスクで一般的に使用される。
本稿では,利用可能な文書から合成データを生成する新しい手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:43:39Z) - PUMA: margin-based data pruning [51.12154122266251]
モデル分類境界からの距離(すなわちマージン)に基づいて、いくつかのトレーニングサンプルを除去するデータプルーニングに焦点を当てる。
我々は,DeepFoolを用いてマージンを算出する新しいデータプルーニング戦略PUMAを提案する。
PUMAは,現状の最先端手法であるロバスト性の上に利用でき,既存のデータプルーニング戦略と異なり,モデル性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-05-10T08:02:20Z) - RandMSAugment: A Mixed-Sample Augmentation for Limited-Data Scenarios [3.018656336329545]
我々はRandMSAugmentと呼ばれる新しい拡張手法を導入し、既存の手法の相補的な強みを統合する。
RandMSAugmentは、CIFAR-100、STL-10、Tiny-Imagenetの競合よりはるかに優れている。
論文 参考訳(メタデータ) (2023-11-25T18:07:20Z) - A Hybrid Deep Learning-based Approach for Optimal Genotype by
Environment Selection [8.084449311613517]
我々は,13年間に159か所をカバーし,93,028のトレーニング記録からなるデータセットを用いて10,337回のテスト記録の収量予測を行った(2003-2015)。
このデータセットには、5,838の異なる遺伝子型と214日間の生育シーズンの日々の気象データが含まれており、包括的な分析を可能にしている。
我々は、CNNと完全接続ネットワークを組み合わせたCNN-DNNモデルと、気象変数にLSTM層を追加するCNN-LSTM-DNNモデルという、2つの新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2023-09-22T17:31:47Z) - An Empirical Study of Large-Scale Data-Driven Full Waveform Inversion [33.19446101601603]
本稿では,ビッグデータがディープラーニングモデルに与える影響について検討し,FWI(Full Waveform Inversion)問題の解法を提案する。
我々は470万組の地震データと速度マップを含むOpenFWIの10個の2次元サブセットの組み合わせでFWIモデルを訓練し、評価する。
実験の結果,MAEは平均13.03%,MSEは7.19%,SSIMは1.87%の改善が得られた。
論文 参考訳(メタデータ) (2023-07-28T08:32:11Z) - Model Pruning Enables Localized and Efficient Federated Learning for
Yield Forecasting and Data Sharing [6.4742178124596625]
フェデレートラーニング(FL)は、アグリフード分野におけるモデルトレーニングに対する分散的なアプローチを示す。
本稿では,クライアントモデル上でのネットワークプルーニングを利用して,プルーニングされたモデルを集約する新しい技術ソリューションを提案する。
我々は大豆収量予測データセットを用いて実験を行い,FedAvgと比較して推定性能が15.5%から20%向上することが確認された。
論文 参考訳(メタデータ) (2023-04-19T17:53:43Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Differentially Private Diffusion Models Generate Useful Synthetic Images [53.94025967603649]
近年の研究では、いくつかの拡散モデルの出力がトレーニングデータのプライバシを保持していないことが報告されている。
CIFAR-10 と Camelyon17 のSOTA 結果を得た。
以上の結果から,差分プライバシーで微調整された拡散モデルが有用かつ実証可能なプライベートな合成データを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-02-27T15:02:04Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。