論文の概要: 1st Place Solution of The Robust Vision Challenge (RVC) 2022 Semantic
Segmentation Track
- arxiv url: http://arxiv.org/abs/2210.12852v1
- Date: Sun, 23 Oct 2022 20:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:27:51.024942
- Title: 1st Place Solution of The Robust Vision Challenge (RVC) 2022 Semantic
Segmentation Track
- Title(参考訳): ロバスト・ビジョン・チャレンジ (RVC) 2022 セマンティック・セグメンテーション・トラックの第1位
- Authors: Junfei Xiao, Zhichao Xu, Shiyi Lan, Zhiding Yu, Alan Yuille and Anima
Anandkumar
- Abstract要約: 本報告では,ECCV 2022におけるロバスト・ビジョン・チャレンジのセマンティック・セマンティック・セマンティック・セマンティック・タスクの勝者ソリューションについて述べる。
本手法では,エンコーダとしてFAN-B-Hybridモデルを採用し,セグメンテーションフレームワークとしてSegformerを使用している。
私たちのソリューションは、複数のドメインから必要なセマンティックセグメンテーションのベンチマークで1位です。
- 参考スコア(独自算出の注目度): 67.56316745239629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report describes the winner solution to the semantic segmentation task
of the Robust Vision Challenge on ECCV 2022. Our method adopts the FAN-B-Hybrid
model as the encoder and uses Segformer as the segmentation framework. The
model is trained on a combined dataset containing images from 9 datasets
(ADE20K, Cityscapes, Mapillary Vistas, ScanNet, VIPER, Wilddash2, IDD, BDD, and
COCO) with a simple dataset balancing strategy. All the original labels are
projected to a 256-class unified label space, and the model is trained with
naive cross-entropy loss. Without significant hyperparameters tuning or any
specific loss weighting, our solution ranks 1st on all the required semantic
segmentation benchmarks from multiple domains (ADE20K, Cityscapes, Mapillary
Vistas, ScanNet, VIPER, and Wilddash2). Our method could be served as a strong
baseline for the multi-domain segmentation task and our codebase could be
helpful to future work. Code will be available at
https://github.com/lambert-x/RVC_Segmentation.
- Abstract(参考訳): 本報告では,eccv 2022におけるロバストビジョンチャレンジの意味セグメンテーションタスクの勝者について述べる。
本手法はfan-b-hybridモデルをエンコーダとして採用し,segformerをセグメンテーションフレームワークとして使用する。
このモデルは、9つのデータセット(ade20k、cityscapes、mapillary vistas、scannet、viper、wilddash2、idd、bdd、coco)からの画像を含む複合データセットでトレーニングされ、シンプルなデータセットのバランス戦略を持つ。
オリジナルのラベルはすべて256クラスの統一ラベル空間に投影され、モデルは単純なクロスエントロピー損失で訓練される。
重要なハイパーパラメータチューニングや特定の損失重み付けがなければ、複数のドメイン(ade20k、cityscapes、mapillary vistas、scannet、viper、wilddash2)から必要なセマンティクスセグメンテーションベンチマークで1位にランク付けします。
私たちのメソッドはマルチドメインセグメンテーションタスクの強力なベースラインとして機能することができ、コードベースは将来の作業に役立つでしょう。
コードはhttps://github.com/lambert-x/RVC_Segmentationで入手できる。
関連論文リスト
- First Place Solution to the ECCV 2024 BRAVO Challenge: Evaluating Robustness of Vision Foundation Models for Semantic Segmentation [1.8570591025615457]
我々はECCV 2024 BRAVO Challengeの第1位となるソリューションを提示する。
モデルはCityscapesでトレーニングされ、その堅牢性はいくつかのアウト・オブ・ディストリビューションデータセットで評価される。
このアプローチは、より複雑な既存のアプローチよりも優れており、チャレンジにおいて第一位を達成しています。
論文 参考訳(メタデータ) (2024-09-25T16:15:06Z) - Weakly Supervised Semantic Segmentation for Driving Scenes [27.0285166404621]
弱教師付きセマンティックセグメンテーション(WSSS)における最先端技術は、駆動シーンデータセットに深刻な性能劣化を示す。
シーンデータセットの駆動に適した新しいWSSSフレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-21T08:16:26Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Instance Segmentation under Occlusions via Location-aware Copy-Paste
Data Augmentation [8.335108002480068]
MMSports 2023 DeepSportRadarは、バスケットボールのコンテキスト内での人間の対象のセグメンテーションに焦点を当てたデータセットを導入した。
この課題は、堅牢なデータ拡張技術と賢明なディープラーニングアーキテクチャの適用を必要とする。
我々の研究(コンペで1位)は、まず、より広い分布でより多くのトレーニングサンプルを生成することのできる、新しいデータ拡張技術を提案する。
論文 参考訳(メタデータ) (2023-10-27T07:44:25Z) - CorrMatch: Label Propagation via Correlation Matching for
Semi-Supervised Semantic Segmentation [73.89509052503222]
本稿では、CorrMatchと呼ばれる、単純だが実行可能な半教師付きセマンティックセマンティックセマンティックセマンティクス手法を提案する。
相関写像は、同一カテゴリのクラスタリングピクセルを容易に実現できるだけでなく、良好な形状情報も含んでいることを観察する。
我々は,高信頼画素を拡大し,さらに掘り出すために,画素の対の類似性をモデル化して画素伝搬を行う。
そして、相関地図から抽出した正確なクラス非依存マスクを用いて、領域伝搬を行い、擬似ラベルを強化する。
論文 参考訳(メタデータ) (2023-06-07T10:02:29Z) - 3rd Place Solution for PVUW2023 VSS Track: A Large Model for Semantic
Segmentation on VSPW [68.56017675820897]
本稿では,PVUW2023 VSSトラックの3位解について紹介する。
ビデオセマンティックセグメンテーションの課題を解決するために,様々な画像レベルの視覚的バックボーンとセグメンテーションヘッドを探索した。
論文 参考訳(メタデータ) (2023-06-04T07:50:38Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - 1st Place Solutions for OpenImage2019 -- Object Detection and Instance
Segmentation [116.25081559037872]
この記事では,2つのチャンピオンチーム,検出トラックのMMfruit'とセグメンテーショントラックのMMfruitSeg'のソリューションについて,OpenImage Challenge 2019で紹介する。
一般に、対象検出器の場合、バックボーンの端の共有特徴は分類と回帰の両方に適さないことが知られている。
自己学習型最適特徴抽出によりオブジェクトの分類と回帰を分離するデカップリングヘッド(DH)を提案する。
論文 参考訳(メタデータ) (2020-03-17T06:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。