論文の概要: Set Valued Predictions For Robust Domain Generalization
- arxiv url: http://arxiv.org/abs/2507.03146v1
- Date: Thu, 03 Jul 2025 19:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.593379
- Title: Set Valued Predictions For Robust Domain Generalization
- Title(参考訳): ロバスト領域一般化のための集合値予測
- Authors: Ron Tsibulsky, Daniel Nevo, Uri Shalit,
- Abstract要約: 集合値予測器は、目に見えない領域にまたがるロバスト性を高めるために利用することができると我々は主張する。
本稿では、ドメイン一般化設定における集合予測の成功を定義する理論的枠組みを紹介する。
本稿では,未確認領域におけるロバストな性能と小さな予測セットサイズをバランスさせる,現代的な学習アーキテクチャと互換性のある実用的な最適化手法を提案する。
- 参考スコア(独自算出の注目度): 10.517157722122452
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the impressive advancements in modern machine learning, achieving robustness in Domain Generalization (DG) tasks remains a significant challenge. In DG, models are expected to perform well on samples from unseen test distributions (also called domains), by learning from multiple related training distributions. Most existing approaches to this problem rely on single-valued predictions, which inherently limit their robustness. We argue that set-valued predictors could be leveraged to enhance robustness across unseen domains, while also taking into account that these sets should be as small as possible. We introduce a theoretical framework defining successful set prediction in the DG setting, focusing on meeting a predefined performance criterion across as many domains as possible, and provide theoretical insights into the conditions under which such domain generalization is achievable. We further propose a practical optimization method compatible with modern learning architectures, that balances robust performance on unseen domains with small prediction set sizes. We evaluate our approach on several real-world datasets from the WILDS benchmark, demonstrating its potential as a promising direction for robust domain generalization.
- Abstract(参考訳): 現代の機械学習の目覚ましい進歩にもかかわらず、ドメイン一般化(DG)タスクの堅牢性を達成することは、依然として大きな課題である。
DGでは、複数の関連するトレーニング分布から学習することで、未確認のテスト分布(ドメインとも呼ばれる)のサンプルに対して、モデルがうまく動作することが期待されている。
この問題に対する既存のアプローチの多くは、本質的にはロバスト性を制限する単一値予測に依存している。
集合値予測器は、未確認領域全体のロバスト性を高めるために利用でき、またこれらのセットは可能な限り小さくすべきである、と我々は主張する。
本稿では,DG設定における集合予測を成功に導く理論的枠組みを導入し,できるだけ多くの領域にわたる事前定義された性能基準を満たすことに着目し,そのような領域の一般化が達成可能な条件に関する理論的洞察を提供する。
さらに、未確認領域におけるロバストな性能と小さな予測セットサイズとのバランスを保ちながら、現代の学習アーキテクチャと互換性のある実用的な最適化手法を提案する。
我々は、WILDSベンチマークから実世界のいくつかのデータセットに対するアプローチを評価し、堅牢なドメイン一般化のための有望な方向としての可能性を示す。
関連論文リスト
- A Unified Analysis of Generalization and Sample Complexity for Semi-Supervised Domain Adaptation [1.9567015559455132]
ドメイン適応は、ソースドメインの豊富なラベル情報を活用して、限られたラベルを持つターゲットドメインの分類性能を向上させる。
既存の理論的分析のほとんどは、ソースとターゲットドメインが同じ入力空間を共有するような単純化された設定に焦点を当てている。
本稿では、ドメインアライメントに基づくドメイン適応アルゴリズムに関する包括的な理論的研究を行う。
論文 参考訳(メタデータ) (2025-07-30T12:53:08Z) - TAROT: Towards Essentially Domain-Invariant Robustness with Theoretical Justification [2.3718468096686802]
TAROTはドメイン適応性と堅牢性の両方を高めるように設計されている。
これは、挑戦的なDomainNetデータセットで優れたパフォーマンスを達成する。
その結果、実世界のドメイン適応シナリオにおける我々のアプローチの幅広い適用性を強調した。
論文 参考訳(メタデータ) (2025-05-10T09:43:04Z) - Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Moderately Distributional Exploration for Domain Generalization [32.57429594854056]
MODEは、未知のターゲット領域上で、証明可能な一般化性能を持つモデルを提供することができることを示す。
実験結果から,MODEは最先端のベースラインに比べて競争性能が高いことがわかった。
論文 参考訳(メタデータ) (2023-04-27T06:50:15Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - Generalizing to Unseen Domains with Wasserstein Distributional Robustness under Limited Source Knowledge [22.285156929279207]
ドメインの一般化は、目に見えないターゲットドメインでうまく機能する普遍的なモデルを学ぶことを目的としている。
We propose a novel domain generalization framework called Wasserstein Distributionally Robust Domain Generalization (WDRDG)。
論文 参考訳(メタデータ) (2022-07-11T14:46:50Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Unsupervised Domain Generalization for Person Re-identification: A
Domain-specific Adaptive Framework [50.88463458896428]
ドメイン一般化(DG)は近年,人物再同定(ReID)において注目されている。
既存のメソッドは通常、ソースドメインにラベルを付ける必要があります。
本稿では、単純で効率的なドメイン固有適応化フレームワークを提案し、適応正規化モジュールで実現する。
論文 参考訳(メタデータ) (2021-11-30T02:35:51Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration [2.8935588665357077]
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
論文 参考訳(メタデータ) (2020-12-20T13:39:29Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。