論文の概要: Open-Set Domain Adaptation Under Background Distribution Shift: Challenges and A Provably Efficient Solution
- arxiv url: http://arxiv.org/abs/2512.01152v1
- Date: Mon, 01 Dec 2025 00:08:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.608747
- Title: Open-Set Domain Adaptation Under Background Distribution Shift: Challenges and A Provably Efficient Solution
- Title(参考訳): 背景分布シフトによるオープンセット領域適応 : 課題と効果的解法
- Authors: Shravan Chaudhari, Yoav Wald, Suchi Saria,
- Abstract要約: 我々の手法は,背景分布が変化した場合においても,オープンセット認識の解決が保証される手法である。
我々は、スケーラブルで堅牢な手法を開発し、画像およびテキストデータに対する総合的な経験的評価を行う。
- 参考スコア(独自算出の注目度): 10.142637798490309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As we deploy machine learning systems in the real world, a core challenge is to maintain a model that is performant even as the data shifts. Such shifts can take many forms: new classes may emerge that were absent during training, a problem known as open-set recognition, and the distribution of known categories may change. Guarantees on open-set recognition are mostly derived under the assumption that the distribution of known classes, which we call \emph{the background distribution}, is fixed. In this paper we develop \ours{}, a method that is guaranteed to solve open-set recognition even in the challenging case where the background distribution shifts. We prove that the method works under benign assumptions that the novel class is separable from the non-novel classes, and provide theoretical guarantees that it outperforms a representative baseline in a simplified overparameterized setting. We develop techniques to make \ours{} scalable and robust, and perform comprehensive empirical evaluations on image and text data. The results show that \ours{} significantly outperforms existing open-set recognition methods under background shift. Moreover, we provide new insights into how factors such as the size of the novel class influences performance, an aspect that has not been extensively explored in prior work.
- Abstract(参考訳): 機械学習システムが現実世界に展開するにつれて、データシフト時にもパフォーマンスの高いモデルを維持することが大きな課題になります。
トレーニング中に欠落していた新しいクラスが出現し、オープンセット認識と呼ばれる問題が発生し、既知のカテゴリの分布が変化する。
オープンセット認識の保証は、我々が 'emph{the background distribution}' と呼ぶ既知のクラスの分布が固定されているという仮定の下で主に導かれる。
本稿では,背景分布が変化した場合においても,オープンセット認識の解決が保証される方法である \ours{} を開発する。
本手法は,新規クラスが非ノーベルクラスから分離可能であるという良質な仮定の下で動作し,単純化された過パラメータ設定で代表ベースラインよりも優れているという理論的保証を提供する。
本稿では, 画像およびテキストデータに対して, 拡張性と堅牢性を両立させ, 包括的実験評価を行う技術を開発した。
その結果, 背景シフト下では, 既存のオープンセット認識手法よりも有意な性能を示した。
さらに,新しいクラスのサイズなどの要因がパフォーマンスにどのように影響するか,新たな知見を提供する。
関連論文リスト
- Informed Mixing -- Improving Open Set Recognition via Attribution-based Augmentation [17.110010140066134]
モデル推論中に新しいクラスを検出する問題に対処するために,オープンセット認識(OSR)が考案された。
学習中のモデルの勾配に基づく属性マップを動的に活用し,学習済みの概念を隠蔽するデータ拡張手法GradMixを提案する。
オープンセット認識,クローズドセット分類,アウト・オブ・ディストリビューション検出の実験により,我々の手法が最先端技術を上回ることがよく明らかになった。
論文 参考訳(メタデータ) (2025-05-19T07:32:06Z) - Exploiting Fine-Grained Prototype Distribution for Boosting Unsupervised Class Incremental Learning [13.17775851211893]
本稿では,教師なしクラスインクリメンタルラーニング(UCIL)の課題について検討する。
この問題に対処することの本質は、包括的特徴表現を効果的に捉え、未知の新しいクラスを発見することである。
本稿では,新しいクラスと既存クラスの重複を最小限に抑え,歴史的知識を保存し,破滅的な忘れの現象を緩和する戦略を提案する。
論文 参考訳(メタデータ) (2024-08-19T14:38:27Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Novel Class Discovery for Long-tailed Recognition [17.464885951359047]
我々は,新しいクラスと既知のクラスの分布が長い尾を持つ,新しいクラス発見のためのより現実的な設定を考える。
この問題に対処するために,クラスを等角的に表現した適応型自己ラベル方式を提案する。
本手法は, 緩和された最適輸送問題の解法により, 新たなクラスに対して高品質な擬似ラベルを推論する。
論文 参考訳(メタデータ) (2023-08-06T02:15:19Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Uncertainty-aware Label Distribution Learning for Facial Expression
Recognition [13.321770808076398]
本研究では,不確実性と曖昧性に対する深層モデルのロバスト性を改善するために,新しい不確実性を考慮したラベル分布学習法を提案する。
本手法は深層ネットワークに容易に組み込んで,より訓練の監督と認識精度の向上を図ることができる。
論文 参考訳(メタデータ) (2022-09-21T15:48:41Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Improved Robustness to Open Set Inputs via Tempered Mixup [37.98372874213471]
本稿では,背景データセットを使わずにオープンセットのロバスト性を向上する簡単な正規化手法を提案する。
提案手法は,オープンセット分類ベースラインにおける最先端の成果を達成し,大規模オープンセット分類問題に容易にスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T04:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。