論文の概要: A Two-Stage Adverse Weather Semantic Segmentation Method for WeatherProof Challenge CVPR 2024 Workshop UG2+
- arxiv url: http://arxiv.org/abs/2406.05513v2
- Date: Thu, 11 Jul 2024 02:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 22:28:14.752814
- Title: A Two-Stage Adverse Weather Semantic Segmentation Method for WeatherProof Challenge CVPR 2024 Workshop UG2+
- Title(参考訳): CVPR 2024ワークショップUG2+における2段階逆気象セマンティックセマンティックセグメンテーション法
- Authors: Jianzhao Wang, Yanyan Wei, Dehua Hu, Yilin Zhang, Shengeng Tang, Kun Li, Zhao Zhang,
- Abstract要約: We propose a two-stage Deep Learning framework for the WeatherProof dataset Challenge。
この課題では,mIoU(Mean Intersection over Union)測定値で0.43の競争スコアを達成し,上位4位を確保した。
- 参考スコア(独自算出の注目度): 10.069192320623031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This technical report presents our team's solution for the WeatherProof Dataset Challenge: Semantic Segmentation in Adverse Weather at CVPR'24 UG2+. We propose a two-stage deep learning framework for this task. In the first stage, we preprocess the provided dataset by concatenating images into video sequences. Subsequently, we leverage a low-rank video deraining method to generate high-fidelity pseudo ground truths. These pseudo ground truths offer superior alignment compared to the original ground truths, facilitating model convergence during training. In the second stage, we employ the InternImage network to train for the semantic segmentation task using the generated pseudo ground truths. Notably, our meticulously designed framework demonstrates robustness to degraded data captured under adverse weather conditions. In the challenge, our solution achieved a competitive score of 0.43 on the Mean Intersection over Union (mIoU) metric, securing a respectable rank of 4th.
- Abstract(参考訳): 本技術報告では,CVPR'24 UG2+における天気予報のセマンティックセグメンテーション(Semantic Segmentation in Adverse Weather)について述べる。
本稿では,この課題に対する2段階のディープラーニングフレームワークを提案する。
第1段階では、画像をビデオシーケンスに分解することで、提供されたデータセットを前処理する。
その後,高忠実度擬似基底真理を生成するために,低ランクなビデオデアライニング手法を利用する。
これらの擬似基底真理は、元の基底真理よりも優れた整合性を提供し、訓練中のモデル収束を促進する。
第2段階では、インターンイメージネットワークを用いて、生成された擬似基底真理を用いてセマンティックセグメンテーションタスクを訓練する。
特に、我々の綿密に設計された枠組みは、悪天候下で取得した劣化データに対して堅牢性を示す。
この課題では,mIoU(Mean Intersection over Union)測定値で0.43の競争スコアを達成し,上位4位を確保した。
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - 1st Place Solution for MeViS Track in CVPR 2024 PVUW Workshop: Motion Expression guided Video Segmentation [81.50620771207329]
ビデオオブジェクトセグメンテーション(RVOS)における静的支配データとフレームサンプリングの有効性について検討する。
本手法は,競技段階でのJ&Fスコア0.5447を達成し,PVUWチャレンジのMeViSトラックで1位となった。
論文 参考訳(メタデータ) (2024-06-11T08:05:26Z) - Technical Report for CVPR 2024 WeatherProof Dataset Challenge: Semantic Segmentation on Paired Real Data [9.128113804878959]
この課題は、世界中の様々な天候によって劣化した画像のセマンティックセグメンテーションを目標とする。
我々は、インターンイメージ(InternImage)という訓練済みの大規模視覚基盤モデルを導入し、異なるレベルのノイズを持つ画像を用いて訓練した。
その結果、45.1mIOUで2位となり、他の優勝者より少なかった。
論文 参考訳(メタデータ) (2024-06-09T17:08:07Z) - Solution for CVPR 2024 UG2+ Challenge Track on All Weather Semantic Segmentation [9.322345758563886]
UG2+ Challenge at CVPR 2024において, 悪天候におけるセマンティックセグメンテーションの解決法について述べる。
InternImage-Hのバックボーンを,大規模関節データセットから事前トレーニングした重み付きで初期化し,最先端のUpernetセグメンテーション手法で強化する。
提案手法は,テストセット上での高度な性能を実証し,この課題において第3位を達成している。
論文 参考訳(メタデータ) (2024-06-09T15:56:35Z) - Enhanced Semantic Segmentation Pipeline for WeatherProof Dataset Challenge [2.722639169181398]
本報告では、WeatherProofデータセットチャレンジの勝利ソリューションについて述べる。
本稿では,この課題に対するセマンティックセグメンテーションパイプラインの強化を提案する。
我々は、より広い視角を持つ新しいデータセットであるWeatherProofExtraを導入し、データ拡張手法を採用した。
私たちのソリューションは、最終リーダーボードで1位にランクされています。
論文 参考訳(メタデータ) (2024-06-06T07:12:50Z) - WeatherProof: Leveraging Language Guidance for Semantic Segmentation in Adverse Weather [8.902960772665482]
本研究では,悪天候下で撮影された画像からセマンティックセグメンテーションマップを推定する方法を提案する。
まず、雨や霧、雪などの気象条件によって劣化した画像の既存のモデルを調べる。
気象画像の正当性を考慮した最初のセマンティックセマンティックセグメンテーションデータセットであるWeatherProofを提案する。
論文 参考訳(メタデータ) (2024-03-21T22:46:27Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - WeatherProof: A Paired-Dataset Approach to Semantic Segmentation in
Adverse Weather [9.619700283574533]
本稿では,悪天候条件下での画像の性能向上につながる一般的なペア学習手法を提案する。
我々は、正確な晴天と悪天候画像のペアで、最初のセマンティックセグメンテーションデータセットを作成する。
その結果,これら2組の晴天フレームと悪天候フレームのトレーニングにより,悪天候データの性能が向上することが判明した。
論文 参考訳(メタデータ) (2023-12-15T04:57:54Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - 1st Place Solution for ECCV 2022 OOD-CV Challenge Image Classification
Track [64.49153847504141]
OOD-CVチャレンジは配布外一般化タスクである。
この課題では、私たちのコアソリューションは、ノイズラベル学習が強いテスト時間ドメイン適応法である、と要約することができます。
テスト時間拡張戦略とモデルアンサンブル戦略を統合することで、OOD-CVチャレンジの画像分類リーダーボードに第一位にランクインする。
論文 参考訳(メタデータ) (2023-01-12T03:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。