論文の概要: Self-Ensembling GAN for Cross-Domain Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2112.07999v1
- Date: Wed, 15 Dec 2021 09:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:39:18.690318
- Title: Self-Ensembling GAN for Cross-Domain Semantic Segmentation
- Title(参考訳): クロスドメインセマンティクスセグメンテーションのための自己センシングgan
- Authors: Yonghao Xu, Fengxiang He, Bo Du, Liangpei Zhang, Dacheng Tao
- Abstract要約: 本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
- 参考スコア(独自算出の注目度): 107.27377745720243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have greatly contributed to the performance gains
in semantic segmentation. Nevertheless, training DNNs generally requires large
amounts of pixel-level labeled data, which is expensive and time-consuming to
collect in practice. To mitigate the annotation burden, this paper proposes a
self-ensembling generative adversarial network (SE-GAN) exploiting cross-domain
data for semantic segmentation. In SE-GAN, a teacher network and a student
network constitute a self-ensembling model for generating semantic segmentation
maps, which together with a discriminator, forms a GAN. Despite its simplicity,
we find SE-GAN can significantly boost the performance of adversarial training
and enhance the stability of the model, the latter of which is a common barrier
shared by most adversarial training-based methods. We theoretically analyze
SE-GAN and provide an $\mathcal O(1/\sqrt{N})$ generalization bound ($N$ is the
training sample size), which suggests controlling the discriminator's
hypothesis complexity to enhance the generalizability. Accordingly, we choose a
simple network as the discriminator. Extensive and systematic experiments in
two standard settings demonstrate that the proposed method significantly
outperforms current state-of-the-art approaches. The source code of our model
will be available soon.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はセマンティックセグメンテーションのパフォーマンス向上に大きく貢献している。
それでも、DNNのトレーニングには、一般的に大量のピクセルレベルのラベル付きデータが必要である。
アノテーションの負担を軽減するため,セマンティックセグメンテーションのためのドメイン間データを利用した自己認識型生成対向ネットワーク(SE-GAN)を提案する。
se-ganでは、教師ネットワークと生徒ネットワークは、判別器と共にganを形成する意味セグメンテーションマップを生成するための自己センシングモデルを構成する。
その単純さにもかかわらず、SE-GANは対戦訓練の性能を大幅に向上させ、モデルの安定性を高めることができる。
理論的には、se-gan を解析し、一般化性を高めるために判別器の仮説複雑性を制御することを示唆する "\mathcal o(1/\sqrt{n})$ generalization bound ($n$ is the training sample size") を提供する。
したがって、識別器として単純なネットワークを選択する。
2つの標準設定における大規模かつ体系的な実験は、提案手法が現在の最先端手法よりも大幅に優れていることを示す。
私たちのモデルのソースコードはもうすぐ入手可能になります。
関連論文リスト
- A Likelihood Ratio-Based Approach to Segmenting Unknown Objects [4.000869978312742]
外部監視は、既存のセグメンテーションネットワークのOoD検出を改善するために広く利用されている戦略である。
外部監視のための適応的で軽量な未知推定モジュール(UEM)を提案する。
提案手法は,複数のデータセットにまたがる新たな最先端性を実現し,従来のベストメソッドよりも平均精度5.74%向上した。
論文 参考訳(メタデータ) (2024-09-10T11:10:32Z) - Supervised Gradual Machine Learning for Aspect Category Detection [0.9857683394266679]
アスペクトカテゴリー検出(ACD)は、あるレビュー文の中で暗黙的かつ明示的な側面を識別することを目的としている。
本稿では,Deep Neural Networks (DNN) と Gradual Machine Learning (GML) を教師付き環境で組み合わせることで,ACDタスクに取り組む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:21:46Z) - Prompting Diffusion Representations for Cross-Domain Semantic
Segmentation [101.04326113360342]
拡散事前学習は、セマンティックセグメンテーションのための並外れた領域一般化結果を達成する。
本研究では,シーンプロンプトとプロンプトランダム化戦略を導入し,セグメンテーションヘッドを訓練する際に,ドメイン不変情報をさらに混乱させる。
論文 参考訳(メタデータ) (2023-07-05T09:28:25Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model
Training and Inference [85.02494022662505]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Learning a Domain-Agnostic Visual Representation for Autonomous Driving
via Contrastive Loss [25.798361683744684]
ドメイン認識コントラスト学習(Domain-Agnostic Contrastive Learning、DACL)は、2段階の非監視ドメイン適応フレームワークである。
提案手法は,従来の最新手法に比べ,単眼深度推定作業における性能向上を実現した。
論文 参考訳(メタデータ) (2021-03-10T07:06:03Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - EC-GAN: Low-Sample Classification using Semi-Supervised Algorithms and
GANs [0.0]
ラベル付きデータによる分類などの画像解析タスクを可能にするため,半教師付き学習が注目されている。
半教師付き分類にgans(generative adrial network)を用いる一般的なアルゴリズムは、分類と識別のための単一のアーキテクチャを共有している。
これにより、各タスクごとに別々のデータ分散に収束するモデルが必要になり、全体的なパフォーマンスが低下する可能性がある。
完全教師付きタスクの分類を改善するために,GANと半教師付きアルゴリズムを用いた新しいGANモデルであるECGANを提案する。
論文 参考訳(メタデータ) (2020-12-26T05:58:00Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。