論文の概要: Long-tail Recognition via Compositional Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2112.06741v1
- Date: Mon, 13 Dec 2021 15:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 20:46:41.689374
- Title: Long-tail Recognition via Compositional Knowledge Transfer
- Title(参考訳): 構成的知識伝達によるロングテール認識
- Authors: Sarah Parisot, Pedro M. Esperanca, Steven McDonagh, Tamas J. Madarasz,
Yongxin Yang, Zhenguo Li
- Abstract要約: 末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 60.03764547406601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a novel strategy for long-tail recognition that
addresses the tail classes' few-shot problem via training-free knowledge
transfer. Our objective is to transfer knowledge acquired from information-rich
common classes to semantically similar, and yet data-hungry, rare classes in
order to obtain stronger tail class representations. We leverage the fact that
class prototypes and learned cosine classifiers provide two different,
complementary representations of class cluster centres in feature space, and
use an attention mechanism to select and recompose learned classifier features
from common classes to obtain higher quality rare class representations. Our
knowledge transfer process is training free, reducing overfitting risks, and
can afford continual extension of classifiers to new classes. Experiments show
that our approach can achieve significant performance boosts on rare classes
while maintaining robust common class performance, outperforming directly
comparable state-of-the-art models.
- Abstract(参考訳): そこで本研究では,学習自由な知識伝達を通じて,末尾クラスの少数ショット問題に対処する,長尾認識のための新しい戦略を提案する。
我々の目的は,情報に富む共通クラスから得られた知識を意味的に類似し,しかもデータに富む稀なクラスに伝達し,より強力なテールクラス表現を得ることである。
我々は,クラスプロトタイプと学習コサイン分類器が特徴空間におけるクラスクラスタ中心の2つの異なる相補的な表現を提供し,学習した分類器の特徴を共通クラスから選択・再構成し,高品質のレアクラス表現を得るために注意機構を利用するという事実を生かした。
我々の知識伝達プロセスは、学習の自由であり、過度に適合するリスクを減らし、分類器を新しいクラスに継続的に拡張することができる。
実験により,我々の手法は,高い性能を保ちながら,希少なクラスにおいて顕著な性能向上を達成できることを示す。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Self-Cooperation Knowledge Distillation for Novel Class Discovery [8.984031974257274]
新たなクラス発見(NCD)は、既知のクラスについて既に学んだ知識を活用することで、ラベルのないセットで未知のクラスと新しいクラスを発見することを目的としている。
本研究では, 自己協調的知識蒸留法 (SCKD) を提案し, 各トレーニングサンプル(既知の, 新規, ラベル付, ラベル付, 未ラベル) を, レビューと発見の両方に活用する。
論文 参考訳(メタデータ) (2024-07-02T03:49:48Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Cross-Class Feature Augmentation for Class Incremental Learning [45.91253737682168]
本稿では,敵対的攻撃を動機とした機能強化手法を取り入れた新しいクラスインクリメンタルラーニング手法を提案する。
提案手法は,任意の対象クラスの特徴を増大させるため,クラスインクリメンタルラーニングにおける従来の知識を活用するためのユニークな視点を持つ。
提案手法は,様々なシナリオにおいて,既存の段階的学習手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-04T15:48:09Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Learning to Generate Novel Classes for Deep Metric Learning [24.048915378172012]
本稿では,新しいクラスとその埋め込みベクトルを合成するデータ拡張手法を提案する。
クラスラベルとノイズを与えられた条件付き生成モデルを学習し、活用することにより、クラスにランダムな埋め込みベクトルを生成する。
提案したジェネレータは,現実的で多様なクラスを増大させることで,よりリッチなクラス関係を利用でき,その結果,見つからないサンプルをより一般化することができる。
論文 参考訳(メタデータ) (2022-01-04T06:55:19Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。