論文の概要: 2024 BRAVO Challenge Track 1 1st Place Report: Evaluating Robustness of
Vision Foundation Models for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2409.17208v1
- Date: Wed, 25 Sep 2024 16:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 07:32:01.048299
- Title: 2024 BRAVO Challenge Track 1 1st Place Report: Evaluating Robustness of
Vision Foundation Models for Semantic Segmentation
- Title(参考訳): 2024 BRAVO Challenge Track 1st Place Report: Evaluating Robustness of
セマンティックセグメンテーションのためのビジョン基礎モデル
- Authors: Tommie Kerssies, Daan de Geus, Gijs Dubbelman
- Abstract要約: 2024年のBRAVO Challengeのトラック1では,モデルがCityscapesでトレーニングされ,その堅牢性はいくつかのアウト・オブ・ディストリビューション・データセットで評価される。
我々のソリューションは、DINOv2に単純なセグメンテーションデコーダを付加し、モデル全体を微調整することで、ビジョンファウンデーションモデルによって学習された強力な表現を活用する。
このアプローチは、より複雑な既存のアプローチよりも優れており、挑戦において第1位を獲得します。
- 参考スコア(独自算出の注目度): 2.087148326341881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we present our solution for Track 1 of the 2024 BRAVO
Challenge, where a model is trained on Cityscapes and its robustness is
evaluated on several out-of-distribution datasets. Our solution leverages the
powerful representations learned by vision foundation models, by attaching a
simple segmentation decoder to DINOv2 and fine-tuning the entire model. This
approach outperforms more complex existing approaches, and achieves 1st place
in the challenge. Our code is publicly available at
https://github.com/tue-mps/benchmark-vfm-ss.
- Abstract(参考訳): 本稿では,2024年のBRAVOチャレンジのトラック1において,モデルがCityscapesでトレーニングされ,その堅牢性はいくつかのアウト・オブ・ディストリビューション・データセットで評価される。
我々のソリューションは、DINOv2に単純なセグメンテーションデコーダを付加し、モデル全体を微調整することで、ビジョンファウンデーションモデルによって学習された強力な表現を活用する。
このアプローチは、より複雑な既存のアプローチよりも優れており、挑戦において第1位を獲得します。
私たちのコードはhttps://github.com/tue-mps/benchmark-vfm-ss.comで公開されています。
関連論文リスト
- Precise Drive with VLM: First Prize Solution for PRCV 2024 Drive LM challenge [8.941623670652389]
本報告ではPRCVチャレンジの方法論について概説する。
シナリオの認知と意思決定に重点を置いています。
我々のモデルは0.6064のスコアを獲得し、競技の最終結果の最初の賞を確保した。
論文 参考訳(メタデータ) (2024-11-05T11:00:55Z) - Solution for OOD-CV UNICORN Challenge 2024 Object Detection Assistance LLM Counting Ability Improvement [6.621745547882088]
本報告では,ECCV OOD-CV UNICORN Challenge 2024で提案した手法について詳述する。
この競合のデータセットはOODCA-VQAとSketchyQAである。
最終テストでは0.86で2位にランクインした。
論文 参考訳(メタデータ) (2024-10-05T15:11:47Z) - Zero-Shot Anomaly Detection with Pre-trained Segmentation Models [2.9322869014189985]
本稿では,視覚異常・ノベルティ検出(VAND)2023チャレンジのゼロショットトラックについて概説する。
WINCLIPフレームワークの性能に基づいて、ゼロショットセグメンテーションモデルを統合することにより、システムのローカライゼーション能力を向上することを目指している。
パイプラインは外部データや情報を必要としないため、新たなデータセットに直接適用することが可能です。
論文 参考訳(メタデータ) (2023-06-15T16:43:07Z) - 2nd Place Winning Solution for the CVPR2023 Visual Anomaly and Novelty
Detection Challenge: Multimodal Prompting for Data-centric Anomaly Detection [10.682758791557436]
本稿では,CVPR2023 Visual Anomaly and Novelty Detection (VAND) の課題に対して,Segment Any Anomaly チームが勝利したソリューションを紹介した。
マルチモーダルプロンプトを用いたゼロショット異常セグメンテーションのための新しいフレームワーク、すなわちセグメンツ・アノマリー + (SAA$+$) を提案する。
CVPR2023 VANで勝利したソリューションのコードを公開します。
論文 参考訳(メタデータ) (2023-06-15T11:49:44Z) - 3rd Place Solution for PVUW2023 VSS Track: A Large Model for Semantic
Segmentation on VSPW [68.56017675820897]
本稿では,PVUW2023 VSSトラックの3位解について紹介する。
ビデオセマンティックセグメンテーションの課題を解決するために,様々な画像レベルの視覚的バックボーンとセグメンテーションヘッドを探索した。
論文 参考訳(メタデータ) (2023-06-04T07:50:38Z) - 1st Place Solution for ECCV 2022 OOD-CV Challenge Object Detection Track [71.12470906323298]
Generalize-then-Adapt(G&A)フレームワークは、2段ドメイン一般化部と1段ドメイン適応部とから構成される。
提案したG&Aフレームワークは,OOD-CVチャレンジにおけるオブジェクト検出リーダボードの初歩的な実現に役立ちます。
論文 参考訳(メタデータ) (2023-01-12T03:50:46Z) - 1st Place Solution of The Robust Vision Challenge (RVC) 2022 Semantic
Segmentation Track [67.56316745239629]
本報告では,ECCV 2022におけるロバストビジョンチャレンジのセマンティックセグメンテーション課題に対する勝利解について述べる。
本手法では,エンコーダとしてFAN-B-Hybridモデルを採用し,セグメンテーションフレームワークとしてSegformerを使用している。
提案手法は,マルチドメインセグメンテーションタスクの強力なベースラインとして機能し,今後の作業に役立てることができる。
論文 参考訳(メタデータ) (2022-10-23T20:52:22Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Large-scale Unsupervised Semantic Segmentation [163.3568726730319]
本稿では, 大規模無教師付きセマンティックセマンティックセグメンテーション (LUSS) の新たな課題を提案する。
ImageNetデータセットに基づいて、120万のトレーニング画像と40万の高品質なセマンティックセグメンテーションアノテーションを用いた画像Net-Sデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-06T15:02:11Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。