論文の概要: Robustness to Subpopulation Shift with Domain Label Noise via
Regularized Annotation of Domains
- arxiv url: http://arxiv.org/abs/2402.11039v1
- Date: Fri, 16 Feb 2024 19:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:49:25.791371
- Title: Robustness to Subpopulation Shift with Domain Label Noise via
Regularized Annotation of Domains
- Title(参考訳): ドメインの正規化アノテーションによるドメインラベルノイズによるサブポピュレーションシフトのロバスト性
- Authors: Nathan Stromberg and Rohan Ayyagari and Monica Welfert and Sanmi
Koyejo and Lalitha Sankar
- Abstract要約: 明示的なドメインアノテーションを必要とせずに、ロバストな最終層分類器をトレーニングするために、ドメインの規則化された依存(RAD)を導入します。
RADは、いくつかの公開データセットのトレーニングデータにおいて、5%のノイズしか持たない最先端のアノテーション-リライアントメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 16.229911337354846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods for last layer retraining that aim to optimize worst-group
accuracy (WGA) rely heavily on well-annotated groups in the training data. We
show, both in theory and practice, that annotation-based data augmentations
using either downsampling or upweighting for WGA are susceptible to domain
annotation noise, and in high-noise regimes approach the WGA of a model trained
with vanilla empirical risk minimization. We introduce Regularized Annotation
of Domains (RAD) in order to train robust last layer classifiers without the
need for explicit domain annotations. Our results show that RAD is competitive
with other recently proposed domain annotation-free techniques. Most
importantly, RAD outperforms state-of-the-art annotation-reliant methods even
with only 5% noise in the training data for several publicly available
datasets.
- Abstract(参考訳): 最悪のグループ精度(wga)を最適化することを目的としたラストレイヤリトレーニングの既存の方法は、トレーニングデータの注釈付きグループに大きく依存している。
理論と実践の両方において、wgaのダウンサンプリングとアップウエイトを用いたアノテーションベースのデータ拡張はドメインアノテーションノイズに影響を受けやすく、高ノイズのレジームではバニラ経験的リスク最小化で訓練されたモデルのwgaにアプローチする。
明示的なドメインアノテーションを必要とせずにロバストなラストレイヤ分類器をトレーニングするために、ドメイン(rad)の正規化アノテーションを導入します。
その結果、RADは、最近提案されたドメインアノテーションのない手法と競合していることがわかった。
最も重要なのは、公開データセットのトレーニングデータにわずか5%のノイズがあるにもかかわらず、radは最先端のアノテーション依存メソッドよりも優れています。
関連論文リスト
- AGLP: A Graph Learning Perspective for Semi-supervised Domain Adaptation [13.472532378889264]
半教師付きドメイン適応(SSDA)において、このモデルは、部分的にラベル付けされたターゲットドメインデータと大量のラベル付けされたソースドメインデータを活用することを目的としている。
本稿では,半教師付きドメイン適応のためのグラフ学習視点(AGLP)を提案する。
グラフ畳み込みネットワークをインスタンスグラフに適用することにより,重み付きグラフエッジに沿って構造情報を伝搬することができる。
論文 参考訳(メタデータ) (2024-11-20T09:41:41Z) - Improve Cross-domain Mixed Sampling with Guidance Training for Adaptive Segmentation [9.875170018805768]
教師なしのドメイン適応(UDA)は、ソースドメインでトレーニングされたモデルを調整し、追加のアノテーションを必要とせずにターゲットドメインでうまく機能させる。
本稿では,指導訓練という新しい補助課題を提案する。
本課題は,実世界の分散シフトを緩和しつつ,クロスドメイン混合サンプリング手法の有効利用を促進する。
既存の手法と統合し、継続的に性能を向上することで、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-22T07:12:48Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - Exploiting Instance-based Mixed Sampling via Auxiliary Source Domain
Supervision for Domain-adaptive Action Detection [75.38704117155909]
本稿では,新しいドメイン適応型行動検出手法と新しい適応プロトコルを提案する。
クロスドメイン混合サンプリングと組み合わせた自己学習は、UDAコンテキストにおいて顕著なパフォーマンス向上を示した。
我々は提案したフレームワークをドメイン適応アクション・インスタンス・ミックス(DA-AIM)と呼ぶ。
論文 参考訳(メタデータ) (2022-09-28T22:03:25Z) - Towards Robust Cross-domain Image Understanding with Unsupervised Noise
Removal [18.21213151403402]
ソース領域がノイズである場合に、クロスドメイン画像理解のための現代ドメイン適応手法が不十分であることが判明した。
Weakly Supervised Domain Adaptation (WSDA) のための新しいノイズ耐性ドメイン適応法を提案する。
新型コロナウイルスおよび電子商取引データセットの一般画像と医用画像の両面において,本手法の有効性を評価するため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-09T14:06:59Z) - SAND-mask: An Enhanced Gradient Masking Strategy for the Discovery of
Invariances in Domain Generalization [7.253255826783766]
ネットワークの各端に流れる勾配の一致に基づいて連続的な重みを決定するマスキング戦略を提案する。
SAND-maskはドメイン一般化のためのDomainbedベンチマークで検証される。
論文 参考訳(メタデータ) (2021-06-04T05:20:54Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Domain Adaptation in LiDAR Semantic Segmentation by Aligning Class
Distributions [9.581605678437032]
この研究は、LiDARセマンティックセグメンテーションモデルに対する教師なしドメイン適応の問題に対処する。
我々のアプローチは、現在の最先端のアプローチの上に新しいアイデアを結合し、新しい最先端の成果をもたらす。
論文 参考訳(メタデータ) (2020-10-23T08:52:15Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。