論文の概要: HIDISC: A Hyperbolic Framework for Domain Generalization with Generalized Category Discovery
- arxiv url: http://arxiv.org/abs/2510.17188v1
- Date: Mon, 20 Oct 2025 06:08:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.326316
- Title: HIDISC: A Hyperbolic Framework for Domain Generalization with Generalized Category Discovery
- Title(参考訳): HIDISC: 一般化カテゴリー発見によるドメイン一般化のためのハイパーボリックフレームワーク
- Authors: Vaibhav Rathore, Divyam Gupta, Biplab Banerjee,
- Abstract要約: Generalized Category Discovery(GCD)は、テスト時のサンプルを、トレーニング中に利用できる**か、ラベルの監督に頼ることなく、新しい*に分類することを目的としている。
既存のGCD手法の多くは、トレーニング中にラベル付きおよびラベルなしのデータへの同時アクセスを前提としている。
エピソードシミュレーションを使わずにドメインレベルとカテゴリレベルを達成するハイパーボリック表現学習フレームワークHIDISCを提案する。
- 参考スコア(独自算出の注目度): 21.232375739287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Category Discovery (GCD) aims to classify test-time samples into either seen categories** -- available during training -- or novel ones, without relying on label supervision. Most existing GCD methods assume simultaneous access to labeled and unlabeled data during training and arising from the same domain, limiting applicability in open-world scenarios involving distribution shifts. Domain Generalization with GCD (DG-GCD) lifts this constraint by requiring models to generalize to unseen domains containing novel categories, without accessing targetdomain data during training. The only prior DG-GCD method, DG2CD-Net, relies on episodic training with multiple synthetic domains and task vector aggregation, incurring high computational cost and error accumulation. We propose HIDISC, a hyperbolic representation learning framework that achieves domain and category-level generalization without episodic simulation. To expose the model to minimal but diverse domain variations, we augment the source domain using GPT-guided diffusion, avoiding overfitting while maintaining efficiency. To structure the representation space, we introduce Tangent CutMix, a curvature-aware interpolation that synthesizes pseudo-novel samples in tangent space, preserving manifold consistency. A unified loss -- combining penalized Busemann alignment, hybrid hyperbolic contrastive regularization, and adaptive outlier repulsion -- **facilitates compact, semantically structured embeddings. A learnable curvature parameter further adapts the geometry to dataset complexity. HIDISC achieves state-of-the-art results on PACS , Office-Home , and DomainNet, consistently outperforming the existing Euclidean and hyperbolic (DG)-GCD baselines.
- Abstract(参考訳): Generalized Category Discovery(GCD)は、テストタイムサンプルを、トレーニング中に利用できる**または新しい*に分類することを目的としている。
既存のGCDメソッドの多くは、トレーニング中にラベル付きおよびラベルなしのデータに同時アクセスし、同じドメインから発生することを前提としている。
GCD(DG-GCD)によるドメイン一般化は、トレーニング中にターゲットドメインデータにアクセスすることなく、新しいカテゴリを含む未知のドメインにモデルを一般化することを要求することにより、この制約を解除する。
以前のDG-GCD法であるDG2CD-Netは、複数の合成ドメインとタスクベクトルアグリゲーションによるエピソードトレーニングに依存しており、高い計算コストとエラーの蓄積をもたらす。
エピソードシミュレーションを使わずにドメインレベルとカテゴリレベルの一般化を実現するハイパーボリック表現学習フレームワークHIDISCを提案する。
最小限ながら多様な領域にモデルを公開するために、GPT誘導拡散を用いてソースドメインを拡張し、効率を保ちながら過度な適合を避ける。
表現空間を構成するために、タンジェント空間における擬似ノーベル標本を合成し、多様体の整合性を保つ曲率対応補間であるTangent CutMixを導入する。
統一された損失 -- ペナル化されたブセマンアライメント、ハイブリッド双曲的コントラスト正規化、適応的外乱反発 -- は、コンパクトで意味論的に構造化された埋め込みをファシリテートする。
学習可能な曲率パラメータは、さらにジオメトリをデータセットの複雑さに適応させる。
HIDISCはPACS、Office-Home、DomainNetの最先端の結果を達成し、既存のEuclideanおよびHyperbolic(DG)-GCDベースラインを一貫して上回っている。
関連論文リスト
- Hyperbolic Category Discovery [12.654574453480635]
Generalized Category Discovery (GCD) は、既知のクラスや未知のクラスに属するかに関わらず、未ラベルのサブセット内のすべてのイメージを分類することを目的としている。
GCDのための階層認識表現と分類器を学習するためのハイパーボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-08T15:12:33Z) - When Domain Generalization meets Generalized Category Discovery: An Adaptive Task-Arithmetic Driven Approach [29.664356718958803]
汎用クラスディスカバリ(GCD)クラスタベースとターゲットドメインの新規クラスは、ベースクラスのみを持つソースドメインからの監視を使用する。
本稿では,GCD(DG-GCD)における領域一般化のパラダイムを紹介する。
我々のソリューションであるDG2CD-Netは、GCDのためのドメインに依存しない差別的な埋め込み空間を構築することを目的としている。
論文 参考訳(メタデータ) (2025-03-19T04:48:16Z) - Towards Cross-domain Few-shot Graph Anomaly Detection [6.732699844225434]
ソースとターゲットドメイン間のデータ分散の相違により、クロスドメインの少数ショットグラフ異常検出(GAD)は簡単ではない。
我々は,上記の課題に対処するために,CDFS-GADと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T08:47:25Z) - DGMamba: Domain Generalization via Generalized State Space Model [80.82253601531164]
ドメイン一般化(DG)は、様々な場面における分散シフト問題を解決することを目的としている。
Mambaは、新興状態空間モデル(SSM)として、より優れた線形複雑性と大域的受容場を持つ。
本稿では,DGMamba という新たな DG フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T14:35:59Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Semantic-Aware Domain Generalized Segmentation [67.49163582961877]
ソースドメインでトレーニングされたディープモデルは、異なるデータ分布を持つ未確認対象ドメインで評価された場合、一般化に欠ける。
セマンティック・アウェア・正規化(SAN)とセマンティック・アウェア・ホワイトニング(SAW)の2つの新しいモジュールを含むフレームワークを提案する。
提案手法は,様々なバックボーンネットワークにおいて,既存の最先端ネットワークよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-04-02T09:09:59Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Simultaneous Semantic Alignment Network for Heterogeneous Domain
Adaptation [67.37606333193357]
本稿では,カテゴリ間の相関を同時に利用し,各カテゴリ毎のセントロイドを整列させるために,aSimultaneous Semantic Alignment Network (SSAN)を提案する。
対象の擬似ラベルを利用することで、各カテゴリの特徴表現を整列させるために、ロバストな三重項中心のアライメント機構を明示的に適用する。
テキスト・ツー・イメージ、画像・画像・テキスト・ツー・テキストにわたる様々なHDAタスクの実験は、最先端のHDA手法に対するSSANの優位性を検証することに成功した。
論文 参考訳(メタデータ) (2020-08-04T16:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。