論文の概要: Exploring Transferable Homogeneous Groups for Compositional Zero-Shot Learning
- arxiv url: http://arxiv.org/abs/2501.10695v2
- Date: Sat, 25 Jan 2025 14:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:50:49.889326
- Title: Exploring Transferable Homogeneous Groups for Compositional Zero-Shot Learning
- Title(参考訳): 合成ゼロショット学習のための移動可能同次群探索
- Authors: Zhijie Rao, Jingcai Guo, Miaoge Li, Yang Chen,
- Abstract要約: 均質なグループ表現学習(HGRL)は、複数の同質なサブグループ表現学習として状態(オブジェクト)表現学習を定式化した新しい視点である。
本手法では,3つのコアコンポーネントを統合し,視覚的表現能力と即時表現能力の両立を図っている。
- 参考スコア(独自算出の注目度): 10.687828416652929
- License:
- Abstract: Conditional dependency present one of the trickiest problems in Compositional Zero-Shot Learning, leading to significant property variations of the same state (object) across different objects (states). To address this problem, existing approaches often adopt either all-to-one or one-to-one representation paradigms. However, these extremes create an imbalance in the seesaw between transferability and discriminability, favoring one at the expense of the other. Comparatively, humans are adept at analogizing and reasoning in a hierarchical clustering manner, intuitively grouping categories with similar properties to form cohesive concepts. Motivated by this, we propose Homogeneous Group Representation Learning (HGRL), a new perspective formulates state (object) representation learning as multiple homogeneous sub-group representation learning. HGRL seeks to achieve a balance between semantic transferability and discriminability by adaptively discovering and aggregating categories with shared properties, learning distributed group centers that retain group-specific discriminative features. Our method integrates three core components designed to simultaneously enhance both the visual and prompt representation capabilities of the model. Extensive experiments on three benchmark datasets validate the effectiveness of our method.
- Abstract(参考訳): 条件依存は、コンポジションゼロショット学習において最も難しい問題の一つであり、異なるオブジェクト(状態)間で同じ状態(オブジェクト)のかなりの特性変化をもたらす。
この問題に対処するため、既存のアプローチでは、オールツーワンまたはワンツーワンの表現パラダイムを採用することが多い。
しかし、これらの極端性は、移動可能性と差別性の間のシーソーの不均衡を生じさせ、他方を犠牲にして一方を優先する。
対照的に、人間は階層的なクラスタリング方式でアナライズと推論に長けており、直感的に類似した特性を持つカテゴリをグループ化し、結合的な概念を形成する。
そこで我々は,多種同種部分群表現学習として状態(対象)表現学習を定式化したHGRL(homogeneous Group Representation Learning)を提案する。
HGRLは、グループ固有の識別的特徴を保持する分散グループセンターを学習し、カテゴリを共有プロパティで適応的に発見・集約することで、意味伝達可能性と識別可能性のバランスを達成することを目指している。
本手法では,3つのコアコンポーネントを統合し,視覚的表現能力と即時表現能力の両立を図っている。
3つのベンチマークデータセットの大規模な実験により,本手法の有効性が検証された。
関連論文リスト
- Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - Cluster-based Contrastive Disentangling for Generalized Zero-Shot
Learning [25.92340532509084]
Generalized Zero-Shot Learning (GZSL) は、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
本稿では,クラスタベースのContrastive Disentangling(CCD)手法を提案する。
論文 参考訳(メタデータ) (2022-03-05T02:50:12Z) - Group-disentangled Representation Learning with Weakly-Supervised
Regularization [13.311886256230814]
GroupVAEは、一貫性と非絡み合いの表現を強制するために、単純だが効果的なクルバック・リーバーの発散に基づく正規化である。
本研究では, グループ差分表現が, 公平な分類や, 再構築, 分類, 転帰学習といった3次元形状関連タスクなど, 下流タスクにおいて改善されることを実証する。
論文 参考訳(メタデータ) (2021-10-23T10:01:05Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Representation Learning for Clustering via Building Consensus [3.7434090710577608]
Unsupervised Representation Learning (ConCURL) を用いたコンセンサスクラスタリングの提案
ConCURLは5つのイメージデータセットのうち4つで、最先端のメソッドよりもクラスタリングパフォーマンスが向上する。
実世界のクラスタリングタスクにおける課題を反映するために,クラスタリングの評価手順を拡張した。
論文 参考訳(メタデータ) (2021-05-04T05:04:03Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Clustering based Contrastive Learning for Improving Face Representations [34.75646290505793]
本稿では,クラスタリングに基づく新しい表現学習手法であるContrastive Learning (CCL)を提案する。
CCLは、ビデオ制約とともにクラスタリングから得られたラベルを使用して、非ネイティブな顔の特徴を学習する。
論文 参考訳(メタデータ) (2020-04-05T13:11:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。