論文の概要: FOCUS: Bridging Fine-Grained Recognition and Open-World Discovery across Domains
- arxiv url: http://arxiv.org/abs/2603.14240v1
- Date: Sun, 15 Mar 2026 06:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.692784
- Title: FOCUS: Bridging Fine-Grained Recognition and Open-World Discovery across Domains
- Title(参考訳): FOCUS: ドメイン間のファイングラインド認識とオープンワールドディスカバリをブリッジする
- Authors: Vaibhav Rathore, Divyam Gupta, Moloud Abdar, Subhasis Chaudhuri, Biplab Banerjee,
- Abstract要約: Fine-Grained Domain-Generalized Generalized Category Discovery (FG-DG-GCD) のための最初の統合フレームワークを紹介する。
FG-GCDはラベル付きソースデータからのみ学習し、既知のクラスを認識し、未知の未ラベルのターゲットドメインで新しいクラスを発見する必要がある。
本稿では,不確実性を考慮した特徴正規化のための機能拡張* (UFA) と幾何安定部分推論のための *Domain-Consistent Parts Discovery* (DCPD) を併用した単一ステージフレームワークFoCUSを提案する。
- 参考スコア(独自算出の注目度): 23.499158058522344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the first unified framework for *Fine-Grained Domain-Generalized Generalized Category Discovery* (FG-DG-GCD), bringing open-world recognition closer to real-world deployment under domain shift. Unlike conventional GCD, which assumes labeled and unlabeled data come from the same distribution, DG-GCD learns only from labeled source data and must both recognize known classes and discover novel ones in unseen, unlabeled target domains. This problem is especially challenging in fine-grained settings, where subtle inter-class differences and large intra-class variation make domain generalization significantly harder. To support systematic evaluation, we establish the first *FG-DG-GCD benchmarks* by creating identity-preserving *painting* and *sketch* domains for CUB-200-2011, Stanford Cars, and FGVC-Aircraft using controlled diffusion-adapter stylization. On top of this ,we propose FoCUS, a single-stage framework that combines *Domain-Consistent Parts Discovery* (DCPD) for geometry-stable part reasoning with *Uncertainty-Aware Feature Augmentation* (UFA) for confidence-calibrated feature regularization through uncertainty-guided perturbations. Extensive experiments show that FoCUS outperforms strong GCD, FG-GCD, and DG-GCD baselines by **3.28%**, **9.68%**, and **2.07%**, respectively, in clustering accuracy on the proposed benchmarks. It also remains competitive on coarse-grained DG-GCD tasks while achieving nearly **3x** higher computational efficiency than the current state of the art. ^[Code and datasets will be released upon acceptance.]
- Abstract(参考訳): The first unified framework for *Fine-Grained Domain-Generalized Generalized Category Discovery* (FG-DG-GCD) which bring open-world recognition to real-world deployment under domain shift。
ラベル付きおよびラベルなしのデータは同じ分布から来ると仮定する従来のGCDとは異なり、DG-GCDはラベル付きソースデータからのみ学習し、既知のクラスを認識し、未知の未ラベルのターゲットドメインで新しいものを発見する必要がある。
この問題は、微妙なクラス間差と大きなクラス内変動がドメインの一般化を著しく難しくする、きめ細かい設定において特に困難である。
そこで我々は,CUB-200-2011,Stanford Cars,FGVC-Aircraftに対して,制御拡散適応型スタイリングを用いて,識別保存*Painting*および*sketch*ドメインを作成することで,最初の*FG-DG-GCDベンチマークを確立する。
これに加えて,不確実性誘導摂動による機能正規化のための不確実性認識機能拡張* (UFA) を用いた幾何安定部分推論に *Domain-Consistent Parts Discovery* (DCPD) と *Uncertainty-Aware Feature Augmentation* (UFA) を組み合わせた単一ステージフレームワークであるFocusを提案する。
大規模な実験により、FoCUSは**3.28%**と**9.68%*と**2.07%*で、それぞれ強いGCD、FG-GCD、DG-GCDのベースラインを上回り、提案されたベンチマークのクラスタリング精度が向上した。
粗粒DG-GCDタスクにも競争力があり、現在の最先端技術よりも**3x*高い計算効率を実現している。
^[コードとデータセットは受け入れ次第リリースされます]
関連論文リスト
- HIDISC: A Hyperbolic Framework for Domain Generalization with Generalized Category Discovery [21.232375739287]
Generalized Category Discovery(GCD)は、テスト時のサンプルを、トレーニング中に利用できる**か、ラベルの監督に頼ることなく、新しい*に分類することを目的としている。
既存のGCD手法の多くは、トレーニング中にラベル付きおよびラベルなしのデータへの同時アクセスを前提としている。
エピソードシミュレーションを使わずにドメインレベルとカテゴリレベルを達成するハイパーボリック表現学習フレームワークHIDISCを提案する。
論文 参考訳(メタデータ) (2025-10-20T06:08:33Z) - When Domain Generalization meets Generalized Category Discovery: An Adaptive Task-Arithmetic Driven Approach [29.664356718958803]
汎用クラスディスカバリ(GCD)クラスタベースとターゲットドメインの新規クラスは、ベースクラスのみを持つソースドメインからの監視を使用する。
本稿では,GCD(DG-GCD)における領域一般化のパラダイムを紹介する。
我々のソリューションであるDG2CD-Netは、GCDのためのドメインに依存しない差別的な埋め込み空間を構築することを目的としている。
論文 参考訳(メタデータ) (2025-03-19T04:48:16Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation [86.61336696914447]
ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
論文 参考訳(メタデータ) (2023-09-22T09:43:32Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。