論文の概要: Simple Domain Generalization Methods are Strong Baselines for Open
Domain Generalization
- arxiv url: http://arxiv.org/abs/2303.18031v1
- Date: Fri, 31 Mar 2023 13:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:06:35.505110
- Title: Simple Domain Generalization Methods are Strong Baselines for Open
Domain Generalization
- Title(参考訳): シンプルなドメイン一般化法はオープンドメイン一般化の強力なベースラインである
- Authors: Masashi Noguchi, Shinichi Shirakawa
- Abstract要約: ドメイン一般化(DG)は、モデルトレーニング中に推論フェーズのターゲットドメインにアクセスできないドメインシフト状況を扱うことを目的としている。
本研究は,既存のDG法を包括的に評価し,Correlation ALignment (CORAL) とMaximum Mean Discrepancy (MMD) の2つの単純なDG法がDAMLと競合していることを示す。
- 参考スコア(独自算出の注目度): 2.5889737226898437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world applications, a machine learning model is required to handle an
open-set recognition (OSR), where unknown classes appear during the inference,
in addition to a domain shift, where the distribution of data differs between
the training and inference phases. Domain generalization (DG) aims to handle
the domain shift situation where the target domain of the inference phase is
inaccessible during model training. Open domain generalization (ODG) takes into
account both DG and OSR. Domain-Augmented Meta-Learning (DAML) is a method
targeting ODG but has a complicated learning process. On the other hand,
although various DG methods have been proposed, they have not been evaluated in
ODG situations. This work comprehensively evaluates existing DG methods in ODG
and shows that two simple DG methods, CORrelation ALignment (CORAL) and Maximum
Mean Discrepancy (MMD), are competitive with DAML in several cases. In
addition, we propose simple extensions of CORAL and MMD by introducing the
techniques used in DAML, such as ensemble learning and Dirichlet mixup data
augmentation. The experimental evaluation demonstrates that the extended CORAL
and MMD can perform comparably to DAML with lower computational costs. This
suggests that the simple DG methods and their simple extensions are strong
baselines for ODG. The code used in the experiments is available at
https://github.com/shiralab/OpenDG-Eval.
- Abstract(参考訳): 実世界のアプリケーションでは、未知のクラスが推論中に現れるオープンセット認識(OSR)と、トレーニングと推論フェーズ間でデータの分布が異なるドメインシフトを扱うために、機械学習モデルが必要である。
ドメイン一般化(DG)は、モデルトレーニング中に推論フェーズのターゲットドメインにアクセスできないドメインシフト状況を扱うことを目的としている。
オープンドメイン一般化(ODG)はDGとOSRの両方を考慮している。
Domain-Augmented Meta-Learning (DAML)は、ODGをターゲットにした手法であるが、複雑な学習プロセスがある。
一方、様々なDG法が提案されているが、ODGの状況では評価されていない。
本研究は,既存のDG法を包括的に評価し,Correlation ALignment(CORAL)とMaximum Mean Discrepancy(MMD)の2つの単純なDG法がDAMLと競合していることを示す。
さらに,DAMLで使用されるアンサンブル学習やディリクレ混合データ拡張などの手法を導入して,CORALとMDの単純な拡張を提案する。
実験により,拡張された CORAL と MMD は,より少ない計算コストでDAML と同等に動作可能であることが示された。
これは、単純なDG法とその単純な拡張がODGの強いベースラインであることを示唆している。
実験で使用されたコードはhttps://github.com/shiralab/OpenDG-Eval.comで公開されている。
関連論文リスト
- Domain-Guided Weight Modulation for Semi-Supervised Domain Generalization [11.392783918495404]
半教師付き領域一般化の課題について検討する。
目的は、ラベル付きデータのごく一部とラベルなしデータの比較的大きな部分だけを使用しながら、ドメイン一般化可能なモデルを学ぶことである。
そこで本研究では,様々なドメインシフトの下で,正確な擬似ラベルの生成を容易にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:26:23Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Domain Generalisation with Domain Augmented Supervised Contrastive
Learning (Student Abstract) [17.865068872754293]
本稿では,データ拡張に伴う問題に対処するため,データ拡張とドメイン距離最小化を組み合わせた新しい手法を提案し,学習性能の保証を提供する。
実験により,本手法はDGベンチマークのベースライン結果よりも優れていた。
論文 参考訳(メタデータ) (2020-12-27T16:50:40Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。