論文の概要: LatentDR: Improving Model Generalization Through Sample-Aware Latent
Degradation and Restoration
- arxiv url: http://arxiv.org/abs/2308.14596v1
- Date: Mon, 28 Aug 2023 14:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 13:46:01.527977
- Title: LatentDR: Improving Model Generalization Through Sample-Aware Latent
Degradation and Restoration
- Title(参考訳): LatentDR: サンプル認識潜在劣化と回復によるモデル一般化の改善
- Authors: Ran Liu, Sahil Khose, Jingyun Xiao, Lakshmi Sathidevi, Keerthan
Ramnath, Zsolt Kira, Eva L. Dyer
- Abstract要約: 本稿では,分布認識型潜伏増大のための新しいアプローチを提案する。
我々の手法はまず潜伏空間のサンプルを分解し、拡張ラベルにマッピングし、トレーニング中にサンプルを復元する。
提案手法は,より一般化可能なモデルの構築において,その汎用性を示すとともに,長尾認識タスクに柔軟に適用可能であることを示す。
- 参考スコア(独自算出の注目度): 22.871920291497094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant advances in deep learning, models often struggle to
generalize well to new, unseen domains, especially when training data is
limited. To address this challenge, we propose a novel approach for
distribution-aware latent augmentation that leverages the relationships across
samples to guide the augmentation procedure. Our approach first degrades the
samples stochastically in the latent space, mapping them to augmented labels,
and then restores the samples from their corrupted versions during training.
This process confuses the classifier in the degradation step and restores the
overall class distribution of the original samples, promoting diverse
intra-class/cross-domain variability. We extensively evaluate our approach on a
diverse set of datasets and tasks, including domain generalization benchmarks
and medical imaging datasets with strong domain shift, where we show our
approach achieves significant improvements over existing methods for latent
space augmentation. We further show that our method can be flexibly adapted to
long-tail recognition tasks, demonstrating its versatility in building more
generalizable models. Code is available at
https://github.com/nerdslab/LatentDR.
- Abstract(参考訳): ディープラーニングの大幅な進歩にもかかわらず、モデルはしばしば、特にトレーニングデータが制限された場合、新しい未知のドメインにうまく一般化するのに苦労している。
この課題に対処するために,サンプル間の関係を利用して拡張手順を導出する分散対応潜時拡張の新しいアプローチを提案する。
提案手法は,まず潜伏空間で確率的にサンプルを分解し,拡張ラベルにマッピングし,トレーニング中に劣化したバージョンからサンプルを復元する。
このプロセスは分解ステップで分類器を混乱させ、元のサンプルのクラス全体の分布を復元し、クラス内/クロスドメインの多様性を促進する。
我々は、ドメイン一般化ベンチマークや強いドメインシフトを伴う医用画像データセットなど、さまざまなデータセットやタスクに対する我々のアプローチを広範囲に評価し、このアプローチが既存の潜在空間拡張のための方法よりも大幅に改善されていることを示す。
さらに,本手法を長尾認識タスクに柔軟に適用できることを示し,より汎用的なモデルの構築における汎用性を示す。
コードはhttps://github.com/nerdslab/LatentDRで入手できる。
関連論文リスト
- Domain Expansion and Boundary Growth for Open-Set Single-Source Domain Generalization [70.02187124865627]
オープンソースの単一ソースドメインの一般化は、単一のソースドメインを使用して、未知のターゲットドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
本稿では,領域拡大と境界成長に基づく新しい学習手法を提案する。
提案手法は,いくつかの領域横断画像分類データセットにおいて,大幅な改善と最先端性能を実現することができる。
論文 参考訳(メタデータ) (2024-11-05T09:08:46Z) - FDS: Feedback-guided Domain Synthesis with Multi-Source Conditional Diffusion Models for Domain Generalization [19.0284321951354]
ドメイン一般化技術は、トレーニング中に新しいデータ分布をシミュレートすることで、モデルロバスト性を高めることを目的としている。
本稿では、拡散モデルを用いて新しい擬似ドメインを合成するFDS、フィードバック誘導ドメイン合成法を提案する。
本手法は, 領域一般化性能のベンチマークを, 様々な課題のあるデータセットに分けて設定することを示す。
論文 参考訳(メタデータ) (2024-07-04T02:45:29Z) - DiffClass: Diffusion-Based Class Incremental Learning [30.514281721324853]
クラスインクリメンタルラーニング(CIL)は破滅的な忘れが原因で困難である。
最近の例のないCIL手法は、過去のタスクデータを合成することによって破滅的な忘れを軽減しようとする。
そこで本研究では,これらの問題を克服するために,新しい非定型CIL法を提案する。
論文 参考訳(メタデータ) (2024-03-08T03:34:18Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Target-Aware Generative Augmentations for Single-Shot Adaptation [21.840653627684855]
我々は、ソースドメインからターゲットドメインへのモデル適応のための新しいアプローチを提案する。
SiSTAは、単一ショットターゲットを用いてソースドメインから生成モデルを微調整し、その後、合成ターゲットデータをキュレートするための新しいサンプリング戦略を用いる。
顔検出や多クラス物体認識において,SiSTAは既存のベースラインよりも大幅に向上していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T17:46:26Z) - Feature Diversity Learning with Sample Dropout for Unsupervised Domain
Adaptive Person Re-identification [0.0]
本稿では,ノイズの多い擬似ラベルを限定することで,より優れた一般化能力を持つ特徴表現を学習する手法を提案する。
我々は,古典的な相互学習アーキテクチャの下で,FDL(Feature Diversity Learning)と呼ばれる新しい手法を提案する。
実験の結果,提案するFDL-SDは,複数のベンチマークデータセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-01-25T10:10:48Z) - Style Curriculum Learning for Robust Medical Image Segmentation [62.02435329931057]
深部セグメンテーションモデルは、トレーニングデータセットとテストデータセットの間の画像強度の分散シフトによって、しばしば劣化する。
本稿では,そのような分散シフトが存在する場合に,ロバストなセグメンテーションを確保するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-01T08:56:24Z) - Distance-based Hyperspherical Classification for Multi-source Open-Set
Domain Adaptation [34.97934677830779]
クローズドワールドのシナリオで訓練されたビジョンシステムは、新しい環境条件が提示されると必然的に失敗する。
オープンワールド学習への道のりは、長年にわたる研究課題である。
本研究ではHyMOSを導入することで,マルチソースなOpen-Setドメイン適応を実現する。
論文 参考訳(メタデータ) (2021-07-05T14:56:57Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。