論文の概要: Augmentation-based Domain Generalization for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2304.12122v1
- Date: Mon, 24 Apr 2023 14:26:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 14:44:25.719326
- Title: Augmentation-based Domain Generalization for Semantic Segmentation
- Title(参考訳): 拡張型セマンティックセグメンテーションのためのドメイン一般化
- Authors: Manuel Schwonberg, Fadoua El Bouazati, Nico M. Schmidt, Hanno
Gottschalk
- Abstract要約: 教師なしドメイン適応(UDA)とドメイン一般化(DG)は、目に見えないドメインに対するディープニューラルネットワーク(DNN)の一般化の欠如に対処することを目的としている。
本稿では,ボケ,ノイズ,色ジッタなど,シンプルなルールベースの画像拡張によるドメイン内および外部の一般化機能について検討する。
我々の実験は、複数の異なる拡張の組み合わせが単一拡張よりも優れているという一般的な科学的基準を確認した。
- 参考スコア(独自算出の注目度): 2.179313476241343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) and domain generalization (DG) are two
research areas that aim to tackle the lack of generalization of Deep Neural
Networks (DNNs) towards unseen domains. While UDA methods have access to
unlabeled target images, domain generalization does not involve any target data
and only learns generalized features from a source domain. Image-style
randomization or augmentation is a popular approach to improve network
generalization without access to the target domain. Complex methods are often
proposed that disregard the potential of simple image augmentations for
out-of-domain generalization. For this reason, we systematically study the in-
and out-of-domain generalization capabilities of simple, rule-based image
augmentations like blur, noise, color jitter and many more. Based on a full
factorial design of experiment design we provide a systematic statistical
evaluation of augmentations and their interactions. Our analysis provides both,
expected and unexpected, outcomes. Expected, because our experiments confirm
the common scientific standard that combination of multiple different
augmentations out-performs single augmentations. Unexpected, because combined
augmentations perform competitive to state-of-the-art domain generalization
approaches, while being significantly simpler and without training overhead. On
the challenging synthetic-to-real domain shift between Synthia and Cityscapes
we reach 39.5% mIoU compared to 40.9% mIoU of the best previous work. When
additionally employing the recent vision transformer architecture DAFormer we
outperform these benchmarks with a performance of 44.2% mIoU
- Abstract(参考訳): unsupervised domain adaptation (uda) と domain generalization (dg) の2つの研究領域は、未知の領域に対するディープニューラルネットワーク(dnn)の一般化の欠如に対処することを目的としている。
UDAメソッドはラベルなしのターゲット画像にアクセスするが、ドメインの一般化にはターゲットデータが含まれず、ソースドメインからのみ一般化された特徴を学習する。
イメージスタイルのランダム化や拡張は、ターゲットドメインにアクセスせずにネットワークの一般化を改善する一般的なアプローチである。
領域外一般化のための単純な画像拡張の可能性を無視する複雑な手法がしばしば提案される。
そこで我々は,ボケやノイズ,カラージッタなど,単純でルールベースの画像拡張の領域外一般化機能を体系的に研究する。
実験設計の完全な因子設計に基づいて,拡張とその相互作用の体系的統計的評価を行う。
我々の分析は予期せぬ結果と予期せぬ結果の両方を提供する。
我々の実験は、複数の異なる拡張の組み合わせが単一の拡張よりも優れているという共通の科学的標準を裏付けているからです。
予期せぬ、組み合わせた拡張は最先端のドメイン一般化アプローチと競合するが、非常に単純であり、訓練のオーバーヘッドも伴わない。
シンシアとシティスケープの間の挑戦的な合成と現実のドメインシフトでは、過去最高の40.9%のmIoUに比べて39.5%のmIoUに達した。
最新のビジョントランスフォーマーアーキテクチャ DAFormer を採用すると、44.2% mIoU のパフォーマンスでこれらのベンチマークを上回っます。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Unified Domain Adaptive Semantic Segmentation [96.74199626935294]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - Improving Generalization with Domain Convex Game [32.07275105040802]
ドメインの一般化は、複数のソースドメインを持つモデルを学習することで、ディープニューラルネットワークの貧弱な一般化能力を緩和する傾向がある。
DG の古典的な解は領域拡大であり、その一般的な信念は、ソース領域の多様化は分布外一般化に導かれるということである。
モデル一般化と領域の多様性の相関は厳密には正ではなく,ドメイン拡張の有効性を制限している。
論文 参考訳(メタデータ) (2023-03-23T14:27:49Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Rethinking Data Augmentation for Single-source Domain Generalization in
Medical Image Segmentation [19.823497430391413]
医用画像セグメンテーションにおける単一ソース領域の一般化のためのデータ拡張戦略を再考する。
医用画像のクラスレベルの表現不変性やスタイル変更性に動機付けられ,C$ランダム変数の線形結合から未知のターゲットデータをサンプリングできるという仮説を立てた。
制約付きB$acuterm e$zier変換をグローバルおよびローカル(クラスレベル)の両方の領域で実装する。
重要な貢献として,提案手法が未確認対象領域上のリスク一般化の上限に達することが理論的に証明された。
論文 参考訳(メタデータ) (2022-11-27T12:05:33Z) - AADG: Automatic Augmentation for Domain Generalization on Retinal Image
Segmentation [1.0452185327816181]
AADG(Automated Augmentation for Domain Generalization)と呼ばれるデータ操作に基づくドメイン一般化手法を提案する。
我々のAADGフレームワークは、新しいドメインを生成するデータ拡張ポリシーを効果的にサンプリングすることができる。
提案するAADGは,最先端の一般化性能を示し,既存手法より優れている。
論文 参考訳(メタデータ) (2022-07-27T02:26:01Z) - Improving Diversity with Adversarially Learned Transformations for
Domain Generalization [81.26960899663601]
本稿では、ニューラルネットワークを用いた逆学習変換(ALT)を用いて、可塑性かつハードな画像変換をモデル化する新しいフレームワークを提案する。
我々は、ALTが既存の多様性モジュールと自然に連携して、ソースドメインの大規模変換によって最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-06-15T18:05:24Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。