論文の概要: Set Valued Predictions For Robust Domain Generalization
- arxiv url: http://arxiv.org/abs/2507.03146v1
- Date: Thu, 03 Jul 2025 19:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.593379
- Title: Set Valued Predictions For Robust Domain Generalization
- Title(参考訳): ロバスト領域一般化のための集合値予測
- Authors: Ron Tsibulsky, Daniel Nevo, Uri Shalit,
- Abstract要約: 集合値予測器は、目に見えない領域にまたがるロバスト性を高めるために利用することができると我々は主張する。
本稿では、ドメイン一般化設定における集合予測の成功を定義する理論的枠組みを紹介する。
本稿では,未確認領域におけるロバストな性能と小さな予測セットサイズをバランスさせる,現代的な学習アーキテクチャと互換性のある実用的な最適化手法を提案する。
- 参考スコア(独自算出の注目度): 10.517157722122452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the impressive advancements in modern machine learning, achieving robustness in Domain Generalization (DG) tasks remains a significant challenge. In DG, models are expected to perform well on samples from unseen test distributions (also called domains), by learning from multiple related training distributions. Most existing approaches to this problem rely on single-valued predictions, which inherently limit their robustness. We argue that set-valued predictors could be leveraged to enhance robustness across unseen domains, while also taking into account that these sets should be as small as possible. We introduce a theoretical framework defining successful set prediction in the DG setting, focusing on meeting a predefined performance criterion across as many domains as possible, and provide theoretical insights into the conditions under which such domain generalization is achievable. We further propose a practical optimization method compatible with modern learning architectures, that balances robust performance on unseen domains with small prediction set sizes. We evaluate our approach on several real-world datasets from the WILDS benchmark, demonstrating its potential as a promising direction for robust domain generalization.
- Abstract(参考訳): 現代の機械学習の目覚ましい進歩にもかかわらず、ドメイン一般化(DG)タスクの堅牢性を達成することは、依然として大きな課題である。
DGでは、複数の関連するトレーニング分布から学習することで、未確認のテスト分布(ドメインとも呼ばれる)のサンプルに対して、モデルがうまく動作することが期待されている。
この問題に対する既存のアプローチの多くは、本質的にはロバスト性を制限する単一値予測に依存している。
集合値予測器は、未確認領域全体のロバスト性を高めるために利用でき、またこれらのセットは可能な限り小さくすべきである、と我々は主張する。
本稿では,DG設定における集合予測を成功に導く理論的枠組みを導入し,できるだけ多くの領域にわたる事前定義された性能基準を満たすことに着目し,そのような領域の一般化が達成可能な条件に関する理論的洞察を提供する。
さらに、未確認領域におけるロバストな性能と小さな予測セットサイズとのバランスを保ちながら、現代の学習アーキテクチャと互換性のある実用的な最適化手法を提案する。
我々は、WILDSベンチマークから実世界のいくつかのデータセットに対するアプローチを評価し、堅牢なドメイン一般化のための有望な方向としての可能性を示す。
関連論文リスト
- Moderately Distributional Exploration for Domain Generalization [32.57429594854056]
MODEは、未知のターゲット領域上で、証明可能な一般化性能を持つモデルを提供することができることを示す。
実験結果から,MODEは最先端のベースラインに比べて競争性能が高いことがわかった。
論文 参考訳(メタデータ) (2023-04-27T06:50:15Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Unsupervised Domain Generalization for Person Re-identification: A
Domain-specific Adaptive Framework [50.88463458896428]
ドメイン一般化(DG)は近年,人物再同定(ReID)において注目されている。
既存のメソッドは通常、ソースドメインにラベルを付ける必要があります。
本稿では、単純で効率的なドメイン固有適応化フレームワークを提案し、適応正規化モジュールで実現する。
論文 参考訳(メタデータ) (2021-11-30T02:35:51Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。