論文の概要: Rethinking Domain Generalization Baselines
- arxiv url: http://arxiv.org/abs/2101.09060v2
- Date: Wed, 27 Jan 2021 10:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:28:36.876682
- Title: Rethinking Domain Generalization Baselines
- Title(参考訳): ドメイン一般化ベースラインの再考
- Authors: Francesco Cappio Borlino, Antonio D'Innocente, Tatiana Tommasi
- Abstract要約: ディープラーニングモデルは、トレーニングされたシナリオとは異なるシナリオでデプロイすると脆くなります。
データ拡張戦略は、データ変動性を高めるための有用なツールであり、ドメイン間のモデル堅牢性をサポートする。
この課題はドメイン一般化研究の新しいシナリオを開放し、導入したデータ可変性を適切に活用できる新しい手法の必要性を強調した。
- 参考スコア(独自算出の注目度): 21.841393368012977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite being very powerful in standard learning settings, deep learning
models can be extremely brittle when deployed in scenarios different from those
on which they were trained. Domain generalization methods investigate this
problem and data augmentation strategies have shown to be helpful tools to
increase data variability, supporting model robustness across domains. In our
work we focus on style transfer data augmentation and we present how it can be
implemented with a simple and inexpensive strategy to improve generalization.
Moreover, we analyze the behavior of current state of the art domain
generalization methods when integrated with this augmentation solution: our
thorough experimental evaluation shows that their original effect almost always
disappears with respect to the augmented baseline. This issue open new
scenarios for domain generalization research, highlighting the need of novel
methods properly able to take advantage of the introduced data variability.
- Abstract(参考訳): 標準的な学習環境では非常に強力だが、トレーニングされたシナリオとは異なるシナリオにデプロイされた場合、ディープラーニングモデルは極めて脆弱である。
ドメインの一般化手法はこの問題を調査し、データ拡張戦略は、ドメイン間のモデルロバスト性をサポートするデータ可変性を向上させるための有用なツールであることが示されている。
本研究は,スタイル転送データの拡張に焦点をあて,一般化を改善するためのシンプルで安価な戦略で実装する方法を示す。
さらに, この拡張ソリューションと統合すると, アートドメイン一般化手法の現況の挙動を解析し, 実験結果から, その本来の効果は, 拡張ベースラインに対してほぼ常に消失することが示された。
ドメイン一般化研究の新しいシナリオを公開し、導入したデータ可変性を適切に活用できる新しい手法の必要性を強調した。
関連論文リスト
- Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - LatentDR: Improving Model Generalization Through Sample-Aware Latent
Degradation and Restoration [22.871920291497094]
本稿では,分布認識型潜伏増大のための新しいアプローチを提案する。
我々の手法はまず潜伏空間のサンプルを分解し、拡張ラベルにマッピングし、トレーニング中にサンプルを復元する。
提案手法は,より一般化可能なモデルの構築において,その汎用性を示すとともに,長尾認識タスクに柔軟に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-08-28T14:08:42Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Normalization Perturbation: A Simple Domain Generalization Method for
Real-World Domain Shifts [133.99270341855728]
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく変化する可能性がある。
深層モデルはトレーニングドメインスタイルしか知らない。
このドメインスタイルのオーバーフィット問題を解決するために,正規化摂動を提案する。
論文 参考訳(メタデータ) (2022-11-08T17:36:49Z) - Back-to-Bones: Rediscovering the Role of Backbones in Domain
Generalization [1.6799377888527687]
ドメイン一般化は、学習外分布に一般化する深層学習モデルの能力を研究する。
近年の研究では、DGの再現可能なベンチマークが提供され、既存のアルゴリズムに対する経験的リスク最小化(ERM)の有効性が指摘されている。
本稿では,その内在的一般化能力を包括的に分析するバックボーンの評価を行う。
論文 参考訳(メタデータ) (2022-09-02T15:30:17Z) - Augmentation based unsupervised domain adaptation [2.304713283039168]
小さく非表現的なデータに基づいてトレーニングされたディープラーニングモデルは、トレーニングに使用されるものと異なるデータにデプロイされた場合、パフォーマンスが向上する傾向があります。
本手法は, 対向領域適応と整合性トレーニングの特性を利用して, より堅牢な適応を実現する。
論文 参考訳(メタデータ) (2022-02-23T13:06:07Z) - Generalization of Reinforcement Learning with Policy-Aware Adversarial
Data Augmentation [32.70482982044965]
本稿では,自動生成軌道データによる標準方針学習手法の強化を目的とした,新たなポリシー対応逆データ拡張手法を提案する。
提案手法の一般化性能を検討するために, 多数のRLタスクについて実験を行った。
その結果,本手法は訓練の多様性に限界があり,最先端の一般化テスト性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2021-06-29T17:21:59Z) - Feature-based Style Randomization for Domain Generalization [27.15070576861912]
ドメイン一般化(Domain Generalization、DG)は、まず複数のソースドメイン上のジェネリックモデルを学習し、その後、追加の適応なしに任意の未確認ターゲットドメインに直接一般化することを目的としている。
本稿では,機能レベルの拡張を実現するために,シンプルだが効果的な特徴ベーススタイルのランダム化モジュールを開発する。
既存の画像レベルの拡張と比較して、我々の特徴レベルの拡張は、よりゴール指向でサンプルの多様性のある方法を好む。
論文 参考訳(メタデータ) (2021-06-06T16:34:44Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。