論文の概要: SimpleDG: Simple Domain Generalization Baseline without Bells and
Whistles
- arxiv url: http://arxiv.org/abs/2210.14507v1
- Date: Wed, 26 Oct 2022 06:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:00:24.921366
- Title: SimpleDG: Simple Domain Generalization Baseline without Bells and
Whistles
- Title(参考訳): SimpleDG: ベルとウィスレスのないシンプルなドメイン一般化ベースライン
- Authors: Zhi Lv, Bo Lin, Siyuan Liang, Lihua Wang, Mochen Yu, Yao Tang and
Jiajun Liang
- Abstract要約: 本稿では、NICO CHALLENGE 2022において、共通コンテキスト一般化トラックとハイブリッドコンテキスト一般化トラックで2位となる、シンプルなドメイン一般化ベースラインを提案する。
近年の文献, ドメインベッドにおいて, ERMは最近の最先端のドメイン一般化法と比較して強力なベースラインであることを検証するとともに, 一般化性能をさらに向上させるシンプルで効果的な設計を含むSimpleDGを提案する。
- 参考スコア(独自算出の注目度): 5.484248934335363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple domain generalization baseline, which wins second place
in both the common context generalization track and the hybrid context
generalization track respectively in NICO CHALLENGE 2022. We verify the
founding in recent literature, domainbed, that ERM is a strong baseline
compared to recent state-of-the-art domain generalization methods and propose
SimpleDG which includes several simple yet effective designs that further boost
generalization performance. Code is available at
https://github.com/megvii-research/SimpleDG
- Abstract(参考訳): 本稿では、NICO CHALLENGE 2022において、共通コンテキスト一般化トラックとハイブリッドコンテキスト一般化トラックで2位となる、シンプルなドメイン一般化ベースラインを提案する。
近年の文献, ドメインベッドにおいて, ERMは最近の最先端のドメイン一般化法と比較して強力なベースラインであることを検証するとともに, 一般化性能をさらに向上させるシンプルで効果的な設計を含むSimpleDGを提案する。
コードはhttps://github.com/megvii-research/SimpleDGで入手できる。
関連論文リスト
- DGMamba: Domain Generalization via Generalized State Space Model [80.82253601531164]
ドメイン一般化(DG)は、様々な場面における分散シフト問題を解決することを目的としている。
Mambaは、新興状態空間モデル(SSM)として、より優れた線形複雑性と大域的受容場を持つ。
本稿では,DGMamba という新たな DG フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T14:35:59Z) - TDG: Text-guided Domain Generalization [10.322052096998728]
我々は、テキスト誘導ドメイン一般化(TDG)パラダイムをドメイン一般化のために開発する。
まず、新しいドメイン関連単語で現在のドメインの記述を拡張するために、自動単語生成手法を考案する。
そして,提案手法により生成したドメイン情報をテキスト特徴空間に埋め込む。
最後に、入力画像特徴と生成されたテキスト特徴の両方を利用して、未確認のターゲットドメインをうまく一般化する特別な設計の分類器を訓練する。
論文 参考訳(メタデータ) (2023-08-19T07:21:02Z) - Label-Efficient Domain Generalization via Collaborative Exploration and
Generalization [28.573872986524794]
本稿では,ラベル制限されたソースドメインを用いたモデル一般化を実現するために,ラベル効率のよいドメイン一般化(LEDG)を提案する。
本稿では,活発な探索と半教師付き一般化を共同で最適化する,共同探索・一般化(CEG)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T05:34:50Z) - Localized Adversarial Domain Generalization [83.4195658745378]
対数領域の一般化は、領域の一般化に対する一般的なアプローチである。
空間コンパクト性維持(LADG)を用いた局所対向領域の一般化を提案する。
我々はWilds DGベンチマークで包括的な実験を行い、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2022-05-09T08:30:31Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - HCDG: A Hierarchical Consistency Framework for Domain Generalization on
Medical Image Segmentation [33.623948922908184]
ドメイン一般化のための新しい階層的一貫性フレームワーク(HCDG)を提案する。
Extrinsic Consistencyでは、複数のソースドメインにまたがる知識を活用して、データレベルの一貫性を強制します。
Intrinsic Consistencyでは、デュアルタスクシナリオの下で同じインスタンスに対してタスクレベルの一貫性を実行します。
論文 参考訳(メタデータ) (2021-09-13T07:07:23Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Generalizing to Unseen Domains: A Survey on Domain Generalization [59.16754307820612]
ドメイン一般化は、1つまたは複数の異なるが関連するドメインが与えられる困難な設定を扱う。
目標は、目に見えないテストドメインに一般化できるモデルを学ぶことです。
本稿では,領域一般化の最近の進歩に対する最初のレビューを紹介する。
論文 参考訳(メタデータ) (2021-03-02T06:04:11Z) - Sequential Learning for Domain Generalization [81.70387860425855]
ドメイン一般化(DG)のための逐次学習フレームワークを提案する。
最近提案されたメタラーニング領域一般化(MLDG)への応用に焦点をあてる。
論文 参考訳(メタデータ) (2020-04-03T05:10:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。