論文の概要: BCE3S: Binary Cross-Entropy Based Tripartite Synergistic Learning for Long-tailed Recognition
- arxiv url: http://arxiv.org/abs/2511.14097v1
- Date: Tue, 18 Nov 2025 03:30:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.908546
- Title: BCE3S: Binary Cross-Entropy Based Tripartite Synergistic Learning for Long-tailed Recognition
- Title(参考訳): BCE3S:二項交叉エントロピーに基づく三部学習による長距離音声認識
- Authors: Weijia Fan, Qiufu Li, Jiajun Wen, Xiaoyang Peng,
- Abstract要約: 長い尾の認識タスクは、高いクラス内コンパクト性とクラス間分離性を必要とする。
クロスエントロピー(CE)損失に基づく既存の手法は、望ましい特性を持つ特徴を学習するのに苦労する。
本稿では,BCE3Sと呼ばれる二進的クロスエントロピー(BCE)に基づく三部分節合成学習を提案する。
- 参考スコア(独自算出の注目度): 6.191659600489302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For long-tailed recognition (LTR) tasks, high intra-class compactness and inter-class separability in both head and tail classes, as well as balanced separability among all the classifier vectors, are preferred. The existing LTR methods based on cross-entropy (CE) loss not only struggle to learn features with desirable properties but also couple imbalanced classifier vectors in the denominator of its Softmax, amplifying the imbalance effects in LTR. In this paper, for the LTR, we propose a binary cross-entropy (BCE)-based tripartite synergistic learning, termed BCE3S, which consists of three components: (1) BCE-based joint learning optimizes both the classifier and sample features, which achieves better compactness and separability among features than the CE-based joint learning, by decoupling the metrics between feature and the imbalanced classifier vectors in multiple Sigmoid; (2) BCE-based contrastive learning further improves the intra-class compactness of features; (3) BCE-based uniform learning balances the separability among classifier vectors and interactively enhances the feature properties by combining with the joint learning. The extensive experiments show that the LTR model trained by BCE3S not only achieves higher compactness and separability among sample features, but also balances the classifier's separability, achieving SOTA performance on various long-tailed datasets such as CIFAR10-LT, CIFAR100-LT, ImageNet-LT, and iNaturalist2018.
- Abstract(参考訳): ロングテール認識(LTR)タスクでは、頭と尾の両方で高いクラス内コンパクト性とクラス間セパビリティ、および全ての分類器ベクトル間でのバランスの取れたセパビリティが好ましい。
クロスエントロピー(CE)損失に基づく既存のLTR法は、所望の特性を持つ特徴を学習するのに苦労するだけでなく、ソフトマックスの分母における二組の不均衡化ベクトルも学習し、LTRの不均衡効果を増幅する。
本稿では,LTR に対し,BCE をベースとした二分的クロスエントロピー(BCE) に基づく三分的シナジスティック学習 (BCE3S) を提案する。1) BCE ベースの共同学習は,分類器とサンプルの特徴の双方を最適化し,複数のSigmoid における特徴と不均衡な分類器ベクトル間のメトリクスを分離することにより,CE ベースの共同学習よりもコンパクト性と分離性を向上する; 2) BCE ベースのコントラスト学習は特徴のクラス内コンパクト性をさらに向上する; (3) BCE ベースの一様学習は分類器ベクトル間の分離性をバランスさせ,その特性を対話的に強化する。
CIFAR10-LT, CIFAR100-LT, ImageNet-LT, iNaturalist2018などの長いデータセットでSOTA性能を達成した。
関連論文リスト
- DRL: Discriminative Representation Learning with Parallel Adapters for Class Incremental Learning [63.65467569295623]
本稿では,これらの課題に対処するための差別的表現学習(DRL)フレームワークを提案する。
逐次学習を効果的かつ効率的に行うために、DRLのネットワークはPTM上に構築される。
我々のDRLは、CIL時代を通して、他の最先端の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-14T03:19:15Z) - TRiCo: Triadic Game-Theoretic Co-Training for Robust Semi-Supervised Learning [15.638836465479619]
TRiCoは、半教師付き学習の構造を再考する、三進的ゲーム理論の共同学習フレームワークである。
既存のSSLフレームワークにおける重要な制限に対処することによって、TRiCoは原則付き、一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-25T20:10:41Z) - A Generalized Learning Framework for Self-Supervised Contrastive Learning [9.01200351672698]
自己教師付きコントラスト学習(SSCL)は、最近、複数の下流タスクにおいて優位性を示した。
本稿では,標準SSCL手法を,整合部と制約部という2つの部分からなる一般化学習フレームワーク(GLF)に一般化する。
論文 参考訳(メタデータ) (2025-08-19T08:00:29Z) - CKAA: Cross-subspace Knowledge Alignment and Aggregation for Robust Continual Learning [80.18781219542016]
継続的学習(CL)は、シーケンシャルなタスクストリームから継続的に学習するAIモデルに権限を与える。
近年,パラメータ効率のよい微調整(PEFT)によるCL法が注目されている。
ミスリード型タスクIDに対するロバスト性を高めるために,クロスサブスペース・ナレッジアライメント・アグリゲーション(CKAA)を提案する。
論文 参考訳(メタデータ) (2025-07-13T03:11:35Z) - Long-Tail Learning with Rebalanced Contrastive Loss [1.4443576276330394]
本稿では、長い尾の分類精度を高めるための効率的な方法であるRe Balanced Contrastive Learning(RCL)を提案する。
RCLは、特徴空間のバランス性、クラス内コンパクト性、正規化の3つの主な側面に対処する。
3つのベンチマークデータセットに対する実験では、学習した埋め込みの豊かさと、BCLフレームワークに提供されるトップ1バランスの精度の向上が示されている。
論文 参考訳(メタデータ) (2023-12-04T09:27:03Z) - A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition [7.225494453600985]
長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
論文 参考訳(メタデータ) (2023-09-28T03:31:11Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。