論文の概要: Learning through Creation: A Hash-Free Framework for On-the-Fly Category Discovery
- arxiv url: http://arxiv.org/abs/2603.13858v1
- Date: Sat, 14 Mar 2026 09:35:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.451373
- Title: Learning through Creation: A Hash-Free Framework for On-the-Fly Category Discovery
- Title(参考訳): 創造を通して学ぶ: オンザフライカテゴリー発見のためのハッシュフリーフレームワーク
- Authors: Bohan Zhang, Weidong Tang, Zhixiang Chi, Yi Jin, Zhenbo Li, Yang Wang, Yanan Wu,
- Abstract要約: OCDは、推論中に新しいカテゴリーを同時に発見しながら、既知のクラスを認識することを目的としている。
限定ラベル付きデータに最適化されたモデルが、推論中に定性的に異なる発見目標を実行することを期待するのは理にかなっている。
オフライン学習に直接新規カテゴリ認識を注入する,完全機能ベースかつハッシュフリーなフレームワークであるLearning Through Creation (LTC)を提案する。
- 参考スコア(独自算出の注目度): 35.522047721751626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-the-Fly Category Discovery (OCD) aims to recognize known classes while simultaneously discovering emerging novel categories during inference, using supervision only from known classes during offline training. Existing approaches rely either on fixed label supervision or on diffusion-based augmentations to enhance the backbone, yet none of them explicitly train the model to perform the discovery task required at test time. It is fundamentally unreasonable to expect a model optimized on limited labeled data to carry out a qualitatively different discovery objective during inference. This mismatch creates a clear optimization misalignment between the offline learning stage and the online discovery stage. In addition, prior methods often depend on hash-based encodings or severe feature compression, which further limits representational capacity. To address these issues, we propose Learning through Creation (LTC), a fully feature-based and hash-free framework that injects novel-category awareness directly into offline learning. At its core is a lightweight, online pseudo-unknown generator driven by kernel-energy minimization and entropy maximization (MKEE). Unlike previous methods that generate synthetic samples once before training, our generator evolves jointly with the model dynamics and synthesizes pseudo-novel instances on the fly at negligible cost. These samples are incorporated through a dual max-margin objective with adaptive thresholding, strengthening the model's ability to delineate and detect unknown regions through explicit creation. Extensive experiments across seven benchmarks show that LTC consistently outperforms prior work, achieving improvements ranging from 1.5 percent to 13.1 percent in all-class accuracy. The code is available at https://github.com/brandinzhang/LTC
- Abstract(参考訳): オンザフライカテゴリー発見(On-the-Fly Category Discovery, OCD)は、オフライントレーニング中の既知のクラスからのみの監督を用いて、推論中に新しいカテゴリを同時に発見しながら、既知のクラスを認識することを目的としている。
既存のアプローチでは、バックボーンを強化するために固定ラベルの監督や拡散ベースの拡張に依存するが、テスト時に必要とされる発見タスクを実行するためにモデルを明示的にトレーニングする者はいない。
限定ラベル付きデータに最適化されたモデルが、推論中に定性的に異なる発見目標を実行することを期待することは、基本的に不合理である。
このミスマッチは、オフライン学習段階とオンライン発見段階との明確な最適化ミスアライメントを生み出します。
さらに、事前の手法はハッシュベースのエンコーディングや厳しい特徴圧縮に依存しており、表現能力をさらに制限している。
これらの課題に対処するため,我々は,オフライン学習に直接新規カテゴリ認識を注入する,機能ベースでハッシュフリーなフレームワークであるLearning Through Creation (LTC)を提案する。
コアとなるのは、カーネルエネルギーの最小化とエントロピーの最大化(MKEE)によって駆動される軽量でオンラインの擬似未知のジェネレータである。
トレーニング前に1回合成サンプルを生成する従来の方法とは異なり、我々のジェネレータはモデルダイナミクスと共同で進化し、無視できるコストでハエの擬似ノーベルインスタンスを合成する。
これらのサンプルは、適応しきい値を持つ双対最大値の目的によって組み込まれ、明示的な生成を通じて未知の領域を記述および検出するモデルの能力を強化する。
7つのベンチマークによる大規模な実験では、LCCは従来よりも一貫して優れており、全クラスの精度で1.5%から13.1%の改善が達成されている。
コードはhttps://github.com/brandinzhang/LTCで公開されている。
関連論文リスト
- TALON: Test-time Adaptive Learning for On-the-Fly Category Discovery [30.10914068071538]
On-the-fly category discovery (OCD) は、未知のオンラインストリームから新しいカテゴリを同時に発見しながら、既知のカテゴリを認識することを目的としている。
既存のアプローチはオフラインでトレーニングされた機能抽出器を凍結し、ハッシュベースのフレームワークを使用して、機能をクラスプロトタイプとしてバイナリコードに定量化する。
本稿では,発見による学習を可能にするテスト時間適応フレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-09T08:14:58Z) - Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。