論文の概要: ViRN: Variational Inference and Distribution Trilateration for Long-Tailed Continual Representation Learning
- arxiv url: http://arxiv.org/abs/2507.17368v1
- Date: Wed, 23 Jul 2025 10:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.948611
- Title: ViRN: Variational Inference and Distribution Trilateration for Long-Tailed Continual Representation Learning
- Title(参考訳): ViRN:長期連続表現学習のための変分推論と分布三値化
- Authors: Hao Dai, Chong Tang, Jagmohan Chauhan,
- Abstract要約: ViRNは、変動推論と分布三元化を統合した、堅牢な長期学習のための新しいフレームワークである。
音声(まれな音響イベント、アクセント)や画像タスクを含む6つの長い尾の分類ベンチマークで評価される。
最先端の手法よりも平均精度が10.24%向上する。
- 参考スコア(独自算出の注目度): 6.253882111488726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning (CL) with long-tailed data distributions remains a critical challenge for real-world AI systems, where models must sequentially adapt to new classes while retaining knowledge of old ones, despite severe class imbalance. Existing methods struggle to balance stability and plasticity, often collapsing under extreme sample scarcity. To address this, we propose ViRN, a novel CL framework that integrates variational inference (VI) with distributional trilateration for robust long-tailed learning. First, we model class-conditional distributions via a Variational Autoencoder to mitigate bias toward head classes. Second, we reconstruct tail-class distributions via Wasserstein distance-based neighborhood retrieval and geometric fusion, enabling sample-efficient alignment of tail-class representations. Evaluated on six long-tailed classification benchmarks, including speech (e.g., rare acoustic events, accents) and image tasks, ViRN achieves a 10.24% average accuracy gain over state-of-the-art methods.
- Abstract(参考訳): 長い尾を持つデータ分散を伴う連続学習(CL)は、厳密なクラス不均衡にもかかわらず、古いクラスの知識を維持しながら、モデルが新しいクラスに順次適応しなければならない現実世界のAIシステムにとって、依然として重要な課題である。
既存の方法は安定性と可塑性のバランスに苦しむが、しばしば極端なサンプル不足の下で崩壊する。
そこで本研究では、変動推論(VI)と分散三元化を統合した、頑健な長期学習のための新しいCLフレームワークであるViRNを提案する。
まず、変動オートエンコーダを用いてクラス条件分布をモデル化し、ヘッドクラスに対するバイアスを軽減する。
第2に、ワッサーシュタイン距離に基づく近傍探索と幾何融合により、テールクラス分布を再構成し、テールクラス表現の標本効率の良いアライメントを可能にする。
音声(例:希少な音響イベント、アクセント)や画像タスクを含む6つの長い尾の分類ベンチマークで評価され、ViRNは最先端の手法よりも平均10.24%の精度向上を達成した。
関連論文リスト
- CORAL: Disentangling Latent Representations in Long-Tailed Diffusion [4.310167974376405]
長い尾を持つデータセットで訓練した拡散モデルの挙動について検討する。
尾級部分空間の潜在表現は、ヘッドクラスのそれと大きな重複を示す。
本稿では、教師付き相対的損失を利用して、よく区切られた潜在クラス表現を促進するコントラスト型潜在クラスアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-19T00:23:44Z) - CLIMB-3D: Continual Learning for Imbalanced 3D Instance Segmentation [67.36817440834251]
我々はtextbfCLass-incremental textbfIm Balance-aware textbf3DIS の統一フレームワークを提案する。
提案手法は, 先行研究を最大16.76%まで上回り, セマンティックセマンティックセマンティックセマンティクスでは約30%のmIoUを達成している。
論文 参考訳(メタデータ) (2025-02-24T18:58:58Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Dynamic Residual Classifier for Class Incremental Learning [4.02487511510606]
古いクラスと新しいクラスの間に不均衡なサンプル番号があれば、学習はバイアスを受けることができる。
既存のCIL手法は、例えば、調整された損失やデータ再サンプリング手法など、Longtailed (LT) 認識技術を利用する。
この挑戦的なシナリオに対処するために、新しい動的残留適応(DRC)を提案する。
論文 参考訳(メタデータ) (2023-08-25T11:07:11Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。