論文の概要: Domain Generalization by Rejecting Extreme Augmentations
- arxiv url: http://arxiv.org/abs/2310.06670v1
- Date: Tue, 10 Oct 2023 14:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 15:07:58.754032
- Title: Domain Generalization by Rejecting Extreme Augmentations
- Title(参考訳): 極端拡張を拒絶するドメイン一般化
- Authors: Masih Aminbeidokhti, Fidel A. Guerrero Pe\~na, Heitor Rapela Medeiros,
Thomas Dubail, Eric Granger, Marco Pedersoli
- Abstract要約: ドメイン外およびドメインの一般化設定では、データ拡張が顕著で堅牢なパフォーマンス向上をもたらすことを示す。
i)標準データ拡張変換の均一サンプリング,(ii)ドメイン外での作業において期待される高いデータ分散を考慮した強度変換,(iii)トレーニングを損なうような極端な変換を拒否する新たな報酬関数を考案する,という簡単なトレーニング手順を提案する。
- 参考スコア(独自算出の注目度): 13.114457707388283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is one of the most effective techniques for regularizing
deep learning models and improving their recognition performance in a variety
of tasks and domains. However, this holds for standard in-domain settings, in
which the training and test data follow the same distribution. For the
out-of-domain case, where the test data follow a different and unknown
distribution, the best recipe for data augmentation is unclear. In this paper,
we show that for out-of-domain and domain generalization settings, data
augmentation can provide a conspicuous and robust improvement in performance.
To do that, we propose a simple training procedure: (i) use uniform sampling on
standard data augmentation transformations; (ii) increase the strength
transformations to account for the higher data variance expected when working
out-of-domain, and (iii) devise a new reward function to reject extreme
transformations that can harm the training. With this procedure, our data
augmentation scheme achieves a level of accuracy that is comparable to or
better than state-of-the-art methods on benchmark domain generalization
datasets. Code: \url{https://github.com/Masseeh/DCAug}
- Abstract(参考訳): データ拡張は、ディープラーニングモデルを規則化し、さまざまなタスクやドメインにおける認識性能を改善するための最も効果的な手法の1つである。
しかし、これは標準のドメイン内設定であり、トレーニングデータとテストデータが同じディストリビューションに従う。
テストデータが異なる未知の分布に従うドメイン外の場合、データ拡張のための最良のレシピは不明確である。
本稿では、ドメイン外およびドメイン一般化設定において、データ拡張が目立たず、堅牢なパフォーマンス改善をもたらすことを示す。
そこで我々は,簡単な訓練手順を提案する。
(i)標準データ拡張変換について一様サンプリングを使用する。
(二)ドメイン外作業時に期待される高いデータ分散を考慮した強度変換の増加、及び
(iii)訓練を損なうような極端な変化を拒絶する新たな報酬関数を考案する。
この手法により、我々のデータ拡張方式は、ベンチマーク領域の一般化データセットにおける最先端の手法に匹敵する精度を達成できる。
コード: \url{https://github.com/Masseeh/DCAug}
関連論文リスト
- First-Order Manifold Data Augmentation for Regression Learning [4.910937238451485]
我々は、新しいデータ駆動型ドメイン非依存データ拡張法であるFOMAを紹介する。
分布内一般化と分布外ベンチマークに基づいてFOMAを評価し,いくつかのニューラルアーキテクチャの一般化を改善することを示す。
論文 参考訳(メタデータ) (2024-06-16T12:35:05Z) - AdvST: Revisiting Data Augmentations for Single Domain Generalization [39.55487584183931]
単一ドメインの一般化は、単一のソースドメインのデータを使用して、未知のターゲットドメインシフトに対して堅牢なモデルをトレーニングすることを目的としている。
セマンティクス変換としての学習可能なパラメータによる標準的なデータ拡張は、サンプルの特定のセマンティクスを操作できる。
本稿では,セマンティックス変換を用いたAdversarial Learning(AdvST)を提案する。
論文 参考訳(メタデータ) (2023-12-20T02:29:31Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - VisDA-2021 Competition Universal Domain Adaptation to Improve
Performance on Out-of-Distribution Data [64.91713686654805]
Visual Domain Adaptation (VisDA) 2021コンペティションは、新しいテストディストリビューションに適応するモデルの能力をテストする。
我々は,新しい視点,背景,モダリティ,品質劣化への適応性を評価する。
厳密なプロトコルを使用してパフォーマンスを計測し、最先端のドメイン適応手法と比較する。
論文 参考訳(メタデータ) (2021-07-23T03:21:51Z) - Gradient Matching for Domain Generalization [93.04545793814486]
機械学習システムの重要な要件は、見えないドメインに一般化する能力です。
ドメインの一般化を目標とするドメイン間勾配マッチングの目的を提案する。
我々は、その最適化を近似する単純な一階アルゴリズムfishを導出する。
論文 参考訳(メタデータ) (2021-04-20T12:55:37Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - A Batch Normalization Classifier for Domain Adaptation [0.0]
トレーニングセット外の予期せぬデータにモデルを適応させることは、新しいアプローチを動機づけ続ける一般的な問題である。
本研究では,ソフトマックスアクティベーション前の出力層におけるバッチ正規化の適用により,改良されたResNetモデルにおける視覚データ領域間の一般化が向上することを示す。
論文 参考訳(メタデータ) (2021-03-22T08:03:44Z) - On the Generalization Effects of Linear Transformations in Data
Augmentation [32.01435459892255]
データ拡張は、画像やテキストの分類タスクのようなアプリケーションのパフォーマンスを改善するための強力な技術である。
我々は線形変換の族を研究し、過度にパラメータ化された線形回帰設定におけるリッジ推定器への影響について研究する。
本稿では,モデルが変換データに対してどの程度不確実であるかによって,変換空間を探索する拡張手法を提案する。
論文 参考訳(メタデータ) (2020-05-02T04:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。