論文の概要: Generalizable Model-agnostic Semantic Segmentation via Target-specific
Normalization
- arxiv url: http://arxiv.org/abs/2003.12296v2
- Date: Tue, 31 Aug 2021 06:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 05:13:24.918535
- Title: Generalizable Model-agnostic Semantic Segmentation via Target-specific
Normalization
- Title(参考訳): 対象特異的正規化による一般化可能なモデル非依存意味セグメンテーション
- Authors: Jian Zhang, Lei Qi, Yinghuan Shi, Yang Gao
- Abstract要約: 一般化可能なセマンティックセグメンテーションタスクのための新しいドメイン一般化フレームワークを提案する。
モデルに依存しない学習を利用してドメインシフト問題をシミュレートする。
観測対象領域と観測対象領域間のデータ分散の相違を考慮し、目標固有正規化方式を開発する。
- 参考スコア(独自算出の注目度): 24.14272032117714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation in a supervised learning manner has achieved
significant progress in recent years. However, its performance usually drops
dramatically due to the data-distribution discrepancy between seen and unseen
domains when we directly deploy the trained model to segment the images of
unseen (or new coming) domains. To this end, we propose a novel domain
generalization framework for the generalizable semantic segmentation task,
which enhances the generalization ability of the model from two different
views, including the training paradigm and the test strategy. Concretely, we
exploit the model-agnostic learning to simulate the domain shift problem, which
deals with the domain generalization from the training scheme perspective.
Besides, considering the data-distribution discrepancy between seen source and
unseen target domains, we develop the target-specific normalization scheme to
enhance the generalization ability. Furthermore, when images come one by one in
the test stage, we design the image-based memory bank (Image Bank in short)
with style-based selection policy to select similar images to obtain more
accurate statistics of normalization. Extensive experiments highlight that the
proposed method produces state-of-the-art performance for the domain
generalization of semantic segmentation on multiple benchmark segmentation
datasets, i.e., Cityscapes, Mapillary.
- Abstract(参考訳): 近年,教師あり学習方式による意味セグメンテーションが著しい進歩を遂げている。
しかしながら、トレーニングされたモデルを直接デプロイして、目に見えない(あるいは新しい)ドメインのイメージをセグメント化する場合、そのパフォーマンスは、通常、データ分散の相違により劇的に低下します。
そこで本研究では,学習パラダイムとテスト戦略を含む2つの異なる視点から,モデルの一般化能力を向上する,一般化可能なセマンティックセマンティクスタスクのための新しいドメイン一般化フレームワークを提案する。
具体的には、モデル非依存学習を利用して、トレーニングスキームの観点からのドメイン一般化を扱うドメインシフト問題をシミュレートする。
また,画像ソースと未確認対象ドメイン間のデータ分散の相違を考慮し,一般化能力を高めるために,目標固有正規化方式を開発する。
さらに、テスト段階で画像が一つずつ現れると、画像ベースメモリバンク(略して画像バンク)をスタイルベース選択ポリシーで設計し、類似画像を選択し、より正確な正規化統計値を得る。
大規模な実験により,提案手法は複数のベンチマークセグメンテーションデータセット,すなわちCityscapes,Mapillary上でのセグメンテーションの領域一般化のための最先端性能を実現する。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - WIDIn: Wording Image for Domain-Invariant Representation in Single-Source Domain Generalization [63.98650220772378]
We present WIDIn, Wording Images for Domain-Invariant representation, to disentangleative discriminative visual representation。
まず、ドメイン固有の言語を適応的に識別し、削除するために使用可能な、きめ細かいアライメントを組み込んだ言語を推定する。
WIDInは、CLIPのような事前訓練された視覚言語モデルと、MoCoやBERTのような個別訓練されたユニモーダルモデルの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-28T17:46:27Z) - DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Prompting Diffusion Representations for Cross-Domain Semantic
Segmentation [101.04326113360342]
拡散事前学習は、セマンティックセグメンテーションのための並外れた領域一般化結果を達成する。
本研究では,シーンプロンプトとプロンプトランダム化戦略を導入し,セグメンテーションヘッドを訓練する際に,ドメイン不変情報をさらに混乱させる。
論文 参考訳(メタデータ) (2023-07-05T09:28:25Z) - Generalizable Medical Image Segmentation via Random Amplitude Mixup and
Domain-Specific Image Restoration [17.507951655445652]
本稿では,新しい医用画像分割法を提案する。
具体的には、セグメント化モデルと自己超越ドメイン固有の画像復元モジュールを組み合わせることで、マルチタスクパラダイムとしてアプローチを設計する。
医用画像における2つの一般化可能なセグメンテーションベンチマークにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-08-08T03:56:20Z) - Single-domain Generalization in Medical Image Segmentation via Test-time
Adaptation from Shape Dictionary [64.5632303184502]
ドメインの一般化は通常、モデル学習のために複数のソースドメインからのデータを必要とする。
本稿では,1つのソースドメインのみで最悪のシナリオ下でモデルを学習し,異なる未確認対象ドメインに直接一般化する,重要な単一ドメインの一般化問題について考察する。
本稿では,領域間で不変なセグメンテーションのセグメンテーション先情報を抽出し,統合する医用画像セグメンテーションにおいて,この問題に対処する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-29T08:46:27Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Meta-Learned Feature Critics for Domain Generalized Semantic
Segmentation [38.81908956978064]
本稿では,意味的セグメンテーションとドメインの一般化を保証するドメイン不変の特徴を導出する,特徴不絡み付きメタラーニング手法を提案する。
ベンチマークデータセットの結果から,提案モデルの有効性とロバスト性を確認した。
論文 参考訳(メタデータ) (2021-12-27T06:43:39Z) - Semi-supervised Meta-learning with Disentanglement for
Domain-generalised Medical Image Segmentation [15.351113774542839]
新たなセンター(ここではドメイン)からの新しいデータにモデルを一般化することは、依然として課題である。
本稿では,絡み合いを伴う半教師付きメタラーニングフレームワークを提案する。
提案手法は,異なるセグメンテーションタスクに対して頑健であり,2つの公開ベンチマーク上での最先端の一般化性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T19:50:07Z) - Towards Adaptive Semantic Segmentation by Progressive Feature Refinement [16.40758125170239]
セグメンテーションネットワークの転送可能性を高めるために,ドメイン逆学習とともに,革新的なプログレッシブな特徴改善フレームワークを提案する。
その結果、ソース・ドメイン・イメージで訓練されたセグメンテーション・モデルは、大幅な性能劣化を伴わずにターゲット・ドメインに転送できる。
論文 参考訳(メタデータ) (2020-09-30T04:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。