論文の概要: An Empirical Study on Multi-Domain Robust Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2212.04221v1
- Date: Thu, 8 Dec 2022 12:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:52:38.195863
- Title: An Empirical Study on Multi-Domain Robust Semantic Segmentation
- Title(参考訳): マルチドメインロバストセマンティックセマンティックセグメンテーションに関する実証的研究
- Authors: Yajie Liu, Pu Ge, Qingjie Liu, Shichao Fan and Yunhong Wang
- Abstract要約: 我々は、いくつかの人気セグメンテーションデータセットに基づいて、ドメイン間でうまく機能することが期待される統一モデルをトレーニングする。
RVC 2022セマンティックセマンティックセグメンテーションタスクでは,データセットは第1モデルの1/3に過ぎなかった。
- 参考スコア(独自算出の注目度): 42.79166534691889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to effectively leverage the plentiful existing datasets to train a robust
and high-performance model is of great significance for many practical
applications. However, a model trained on a naive merge of different datasets
tends to obtain poor performance due to annotation conflicts and domain
divergence.In this paper, we attempt to train a unified model that is expected
to perform well across domains on several popularity segmentation datasets.We
conduct a detailed analysis of the impact on model generalization from three
aspects of data augmentation, training strategies, and model capacity.Based on
the analysis, we propose a robust solution that is able to improve model
generalization across domains.Our solution ranks 2nd on RVC 2022 semantic
segmentation task, with a dataset only 1/3 size of the 1st model used.
- Abstract(参考訳): 堅牢で高性能なモデルをトレーニングするために、豊富な既存のデータセットを効果的に活用する方法は、多くの実用的なアプリケーションにとって非常に重要である。
However, a model trained on a naive merge of different datasets tends to obtain poor performance due to annotation conflicts and domain divergence.In this paper, we attempt to train a unified model that is expected to perform well across domains on several popularity segmentation datasets.We conduct a detailed analysis of the impact on model generalization from three aspects of data augmentation, training strategies, and model capacity.Based on the analysis, we propose a robust solution that is able to improve model generalization across domains.Our solution ranks 2nd on RVC 2022 semantic segmentation task, with a dataset only 1/3 size of the 1st model used.
関連論文リスト
- Robustness Analysis on Foundational Segmentation Models [28.01242494123917]
本研究では,セグメンテーションタスクのためのVisual Foundation Models (VFM) のロバストネス解析を行う。
2つの異なるデータセットを使用して、7つの最先端セグメンテーションアーキテクチャをベンチマークする。
VFMは、強靭性において不定形モデルをすべて上回るものではないにもかかわらず、圧縮誘起汚損に対する脆弱性を示し、マルチモーダルモデルはゼロショットシナリオにおける競争力を示し、VFMは特定の対象カテゴリに対して強靭性を示す。
論文 参考訳(メタデータ) (2023-06-15T16:59:42Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - On Generalization in Coreference Resolution [66.05112218880907]
モデルの市販性能を評価するため、異なるドメインを対象とした8つのコア参照解決データセットを統合する。
次に、それらのドメイン、アノテーションガイドライン、メタデータが異なるにもかかわらず、トレーニングのために3つのデータセットを混ぜて、単一のモデルを共同でトレーニングする方法を提案する。
ゼロショット環境では、単一のデータセット転送でトレーニングされたモデルが不十分であるのに対して、共同トレーニングの成果によって全体的なパフォーマンスが改善されていることが分かりました。
論文 参考訳(メタデータ) (2021-09-20T16:33:22Z) - A Topological-Framework to Improve Analysis of Machine Learning Model
Performance [5.3893373617126565]
本稿では、データセットをモデルが動作する「空間」として扱う機械学習モデルを評価するためのフレームワークを提案する。
本稿では,各サブポピュレーション間でのモデル性能の保存と解析に有用なトポロジカルデータ構造であるプレシーブについて述べる。
論文 参考訳(メタデータ) (2021-07-09T23:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。