論文の概要: WildNet: Learning Domain Generalized Semantic Segmentation from the Wild
- arxiv url: http://arxiv.org/abs/2204.01446v1
- Date: Mon, 4 Apr 2022 12:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:41:00.311270
- Title: WildNet: Learning Domain Generalized Semantic Segmentation from the Wild
- Title(参考訳): wildnet: 学習領域の一般化した意味セグメンテーション
- Authors: Suhyeon Lee, Hongje Seong, Seongwon Lee, Euntai Kim
- Abstract要約: 新しいドメイン一般化セマンティックセグメンテーションネットワークWildNetを提案する。
さまざまなコンテンツやスタイルを野生から活用して、ドメイン一般化機能を学ぶ。
私たちの考えは、ネットワークが自然にドメインに一般化されたセマンティック情報を学習することです。
- 参考スコア(独自算出の注目度): 15.823918683848877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new domain generalized semantic segmentation network named
WildNet, which learns domain-generalized features by leveraging a variety of
contents and styles from the wild. In domain generalization, the low
generalization ability for unseen target domains is clearly due to overfitting
to the source domain. To address this problem, previous works have focused on
generalizing the domain by removing or diversifying the styles of the source
domain. These alleviated overfitting to the source-style but overlooked
overfitting to the source-content. In this paper, we propose to diversify both
the content and style of the source domain with the help of the wild. Our main
idea is for networks to naturally learn domain-generalized semantic information
from the wild. To this end, we diversify styles by augmenting source features
to resemble wild styles and enable networks to adapt to a variety of styles.
Furthermore, we encourage networks to learn class-discriminant features by
providing semantic variations borrowed from the wild to source contents in the
feature space. Finally, we regularize networks to capture consistent semantic
information even when both the content and style of the source domain are
extended to the wild. Extensive experiments on five different datasets validate
the effectiveness of our WildNet, and we significantly outperform
state-of-the-art methods. The source code and model are available online:
https://github.com/suhyeonlee/WildNet.
- Abstract(参考訳): 本稿では,wildnetという新たなドメイン一般化意味セグメンテーションネットワークを提案する。
ドメイン一般化において、未確認対象ドメインの低一般化能力は、明らかにソースドメインに過度に適合するためである。
この問題に対処するため、以前の研究は、ソースドメインのスタイルを削除または多様化することで、ドメインの一般化に重点を置いてきた。
これらはソーススタイルへのオーバーフィットを緩和したが、ソースコンテンツへのオーバーフィットを見逃していた。
本稿では,ソースドメインの内容とスタイルを野生生物の助けを借りて多様化することを提案する。
ネットワークは自然界からドメインに一般化されたセマンティック情報を学習する。
この目的のために、ソース機能を拡張してワイルドスタイルに類似させ、ネットワークを様々なスタイルに適応させることで、スタイルを多様化する。
さらに,特徴空間のソースコンテンツからワイルドから借用されたセマンティックなバリエーションを提供することで,クラス識別特徴の学習を促す。
最後に、ソースドメインの内容とスタイルの両方がワイルドに拡張された場合でも、一貫性のあるセマンティック情報をキャプチャするためにネットワークを規則化する。
5つの異なるデータセットに対する大規模な実験により、WildNetの有効性が検証され、最先端の手法よりも大幅に優れています。
ソースコードとモデルはオンラインで入手できる。 https://github.com/suhyeonlee/WildNet。
関連論文リスト
- Domain Generalization by Learning and Removing Domain-specific Features [15.061481139046952]
ドメインの一般化は、目に見えないドメインに一般化できるモデルを学ぶことでこの問題に対処することを目的としている。
ドメインの一般化のために、ドメイン固有の機能を明示的に削除することを目的とした、新しいアプローチを提案する。
学習領域固有の特徴を除去した新しい画像空間に各入力画像をマッピングするエンコーダデコーダネットワークを開発した。
論文 参考訳(メタデータ) (2022-12-14T08:46:46Z) - RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation [80.03883315743715]
ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
論文 参考訳(メタデータ) (2022-08-22T18:18:47Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Self-Rule to Adapt: Generalized Multi-source Feature Learning Using
Unsupervised Domain Adaptation for Colorectal Cancer Tissue Detection [9.074125289002911]
教師付き学習はラベル付きデータの可用性によって制限される。
本稿では、自己教師付き学習を利用してドメイン適応を行うSRAを提案する。
論文 参考訳(メタデータ) (2021-08-20T13:52:33Z) - Preserving Semantic Consistency in Unsupervised Domain Adaptation Using
Generative Adversarial Networks [33.84004077585957]
SCGAN (End-to-end novel consistent generation adversarial Network) を提案する。
このネットワークは、機能レベルでセマンティック情報をキャプチャすることで、ソースからターゲットドメインマッチングを実現できます。
本稿では,教師なしドメイン適応設定における最先端性能を超える提案手法の頑健性を示す。
論文 参考訳(メタデータ) (2021-04-28T12:23:30Z) - Domain Generalization with MixStyle [120.52367818581608]
ドメインの一般化(domain generalization)は、ソースドメインのセットから学習することでこの問題に対処しようとしている。
MixStyleと呼ばれるこの手法は、視覚領域が画像スタイルと密接に関連しているという観察によって動機づけられる。
MixStyleは、ミニバッチトレーニングに完全に適合し、実装が非常に簡単です。
論文 参考訳(メタデータ) (2021-04-05T16:58:09Z) - Towards Recognizing New Semantic Concepts in New Visual Domains [9.701036831490768]
我々は、これまで見えない視覚領域で機能し、新しいセマンティックな概念を認識できるディープアーキテクチャを設計することが重要であると論じている。
論文の第1部では、深層モデルが新しいビジュアルドメインに一般化できるように、異なるソリューションについて記述する。
第2部では、事前訓練された深層モデルの知識を、元のトレーニングセットにアクセスすることなく、新しい意味概念に拡張する方法を示す。
論文 参考訳(メタデータ) (2020-12-16T16:23:40Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z) - Multi-source Domain Adaptation for Visual Sentiment Classification [92.53780541232773]
マルチソース・ドメイン適応(MDA)手法をMSGAN(Multi-source Sentiment Generative Adversarial Network)と呼ぶ。
複数のソースドメインからのデータを扱うために、MSGANはソースドメインとターゲットドメインの両方のデータが同じ分布を共有する、統一された感情潜在空間を見つけることを学ぶ。
4つのベンチマークデータセットで実施された大規模な実験により、MSGANは視覚的感情分類のための最先端のMDAアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2020-01-12T08:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。