論文の概要: Variance Matters: Improving Domain Adaptation via Stratified Sampling
- arxiv url: http://arxiv.org/abs/2512.05226v1
- Date: Thu, 04 Dec 2025 20:01:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.795215
- Title: Variance Matters: Improving Domain Adaptation via Stratified Sampling
- Title(参考訳): 変数の問題: 階層化サンプリングによるドメイン適応の改善
- Authors: Andrea Napoli, Paul White,
- Abstract要約: 本稿では,ドメイン階層化サンプリング(VaRDASS)による可変化適応を提案する。
VaRDASSは、UDAの最初の特殊分散低減技術である。
3つの領域シフトデータセットの実験により、差分推定精度が向上し、対象領域のパフォーマンスが向上した。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain shift remains a key challenge in deploying machine learning models to the real world. Unsupervised domain adaptation (UDA) aims to address this by minimising domain discrepancy during training, but the discrepancy estimates suffer from high variance in stochastic settings, which can stifle the theoretical benefits of the method. This paper proposes Variance-Reduced Domain Adaptation via Stratified Sampling (VaRDASS), the first specialised stochastic variance reduction technique for UDA. We consider two specific discrepancy measures -- correlation alignment and the maximum mean discrepancy (MMD) -- and derive ad hoc stratification objectives for these terms. We then present expected and worst-case error bounds, and prove that our proposed objective for the MMD is theoretically optimal (i.e., minimises the variance) under certain assumptions. Finally, a practical k-means style optimisation algorithm is introduced and analysed. Experiments on three domain shift datasets demonstrate improved discrepancy estimation accuracy and target domain performance.
- Abstract(参考訳): ドメインシフトは、機械学習モデルを現実世界にデプロイする上で、依然として重要な課題である。
教師なしドメイン適応(UDA)は、訓練中のドメインの不一致を最小限にすることでこの問題に対処することを目的としている。
本稿では,UDAの確率的分散低減手法であるVaRDASSを提案する。
相関アライメントと最大平均不一致(MMD)の2つの具体的相違を考慮し、これらの用語のアドホックな成層化の目的を導出する。
次に、予測と最悪のエラー境界を示し、提案したMDDの目的が、ある仮定の下で理論的に最適であることを示す(つまり、分散を最小化する)。
最後に、実用的なk-meansスタイルの最適化アルゴリズムを導入、分析する。
3つの領域シフトデータセットの実験では、差分推定精度が向上し、対象領域のパフォーマンスが向上した。
関連論文リスト
- Target-specific Adaptation and Consistent Degradation Alignment for Cross-Domain Remaining Useful Life Prediction [24.676267074769537]
本稿では,TACDAというドメイン間RUL予測のための新しいドメイン適応手法を提案する。
我々は、類似の劣化段階間の一貫したアライメントのための新しいクラスタリングとペアリング戦略を開発する。
提案手法の顕著な性能を実証した。
論文 参考訳(メタデータ) (2025-12-02T10:15:14Z) - DIDS: Domain Impact-aware Data Sampling for Large Language Model Training [61.10643823069603]
大規模言語モデルに対するドメインインパクト対応データサンプリング(DIDS)を提案する。
学習効果に基づくDIDSグループトレーニングデータでは、プロキシ言語モデルと次元削減が使用される。
同等のトレーニング効率を維持しながら平均パフォーマンスを3.4%向上させる。
論文 参考訳(メタデータ) (2025-04-17T13:09:38Z) - Optimal Aggregation of Prediction Intervals under Unsupervised Domain Shift [9.387706860375461]
分散シフトは、基礎となるデータ生成プロセスが変化したときに発生し、モデルの性能のずれにつながる。
予測間隔は、その基礎となる分布によって引き起こされる不確実性を特徴づける重要なツールとして機能する。
予測区間を集約し,最小の幅と対象領域を適切にカバーする手法を提案する。
論文 参考訳(メタデータ) (2024-05-16T17:55:42Z) - Unsupervised Domain Adaptation Based on the Predictive Uncertainty of
Models [1.6498361958317636]
非教師付きドメイン適応(UDA)は、ソースドメインからの分散シフトの下で、ターゲットドメインの予測性能を改善することを目的としている。
ドメインの発散を最小限に抑えるドメイン不変の特徴を学習する新しいUDA法を提案する。
論文 参考訳(メタデータ) (2022-11-16T12:23:32Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。