論文の概要: Your VAR Model is Secretly an Efficient and Explainable Generative Classifier
- arxiv url: http://arxiv.org/abs/2510.12060v1
- Date: Tue, 14 Oct 2025 01:59:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.140018
- Title: Your VAR Model is Secretly an Efficient and Explainable Generative Classifier
- Title(参考訳): VARモデルは秘密裏に効率的で説明可能な生成分類器
- Authors: Yi-Chung Chen, David I. Inouye, Jing Gao,
- Abstract要約: 視覚自己回帰モデリングの最近の進歩に基づく新しい生成モデルを提案する。
VAR法は拡散法と根本的に異なる性質を示す。
特に, VARに基づく分類器は, 難易度が高いため, トークン単位の相互情報による視覚的説明が可能である。
- 参考スコア(独自算出の注目度): 19.629406299980463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative classifiers, which leverage conditional generative models for classification, have recently demonstrated desirable properties such as robustness to distribution shifts. However, recent progress in this area has been largely driven by diffusion-based models, whose substantial computational cost severely limits scalability. This exclusive focus on diffusion-based methods has also constrained our understanding of generative classifiers. In this work, we propose a novel generative classifier built on recent advances in visual autoregressive (VAR) modeling, which offers a new perspective for studying generative classifiers. To further enhance its performance, we introduce the Adaptive VAR Classifier$^+$ (A-VARC$^+$), which achieves a superior trade-off between accuracy and inference speed, thereby significantly improving practical applicability. Moreover, we show that the VAR-based method exhibits fundamentally different properties from diffusion-based methods. In particular, due to its tractable likelihood, the VAR-based classifier enables visual explainability via token-wise mutual information and demonstrates inherent resistance to catastrophic forgetting in class-incremental learning tasks.
- Abstract(参考訳): 分類のための条件付き生成モデルを利用する生成型分類器は、分布シフトに対するロバスト性などの望ましい特性を最近証明している。
しかし、この領域の最近の進歩は拡散モデルによって大きく推され、その計算コストはスケーラビリティを著しく制限している。
この拡散に基づく方法への排他的焦点は、生成的分類器の理解にも制約を与えてきた。
本稿では,視覚自己回帰モデル(VAR)の最近の進歩に基づく新しい生成型分類器を提案する。
さらに,精度と推論速度のトレードオフが優れている適応型VAR分類器$^+$(A-VARC$^+$)を導入し,実用性を大幅に向上させる。
さらに, VAR法は拡散法と根本的に異なる性質を示した。
特に, VARをベースとした分類器は, トークン単位の相互情報による視覚的説明可能性を実現し, クラス増分学習タスクにおける破滅的忘れに対する固有の耐性を示す。
関連論文リスト
- Diffusion-Classifier Synergy: Reward-Aligned Learning via Mutual Boosting Loop for FSCIL [19.094835780362775]
FSCIL(Few-Shot Class-Incremental Learning)は、最小限の例から新しいクラスを逐次学習するモデルに挑戦する。
現在のFSCIL法は、限られたデータセットに依存するため、一般化に苦慮することが多い。
本稿では拡散モデルとFSCIL分類器の相互強化ループを確立する新しいフレームワークであるDiffusion-Classifier Synergy(DCS)を紹介する。
論文 参考訳(メタデータ) (2025-10-04T01:48:52Z) - MoTiC: Momentum Tightness and Contrast for Few-Shot Class-Incremental Learning [20.22260611239967]
FSCIL(Few-Shot Class-Incremental Learning)は、古いクラス知識を維持しながらサンプル不足から新しいクラスを学ぶという2つの課題と競合しなければならない。
新クラスのプロトタイプは、極端なデータ不足のためにかなりの推定バイアスを被り、一方、ベースクラスのプロトタイプは十分なデータから恩恵を受ける。
ベイズ解析による新クラスの先行データと旧クラスの統計値との整合性は分散を減少させ,プロトタイプの精度を向上することを示す。
論文 参考訳(メタデータ) (2025-09-24T00:41:40Z) - Attribute Fusion-based Classifier on Framework of Belief Structure [46.24928730489845]
Dempster-Shafer Theory (DST)は、不確実性をモデリングするための強力なフレームワークを提供し、多属性分類タスクに広く適用されてきた。
従来のDSTに基づく属性融合型分類器は、単純化されたメンバーシップ関数モデリングと基本確率割当(BPA)による信念構造の限定的活用に悩まされている。
本稿では,2つの重要なイノベーションを通じて,これらの制限に対処する属性融合型分類器を提案する。
論文 参考訳(メタデータ) (2025-08-31T09:05:15Z) - DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。