論文の概要: Co-Transport for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2107.12654v1
- Date: Tue, 27 Jul 2021 08:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:53:20.991312
- Title: Co-Transport for Class-Incremental Learning
- Title(参考訳): 授業インクリメンタルラーニングのためのコトランスポート
- Authors: Da-Wei Zhou, Han-Jia Ye, De-Chuan Zhan
- Abstract要約: 新しいクラスは、しばしば現実世界のアプリケーションに現れ、漸進的に学ぶべきである。
インクリメンタルラーニングでは,古いクラスと新しいクラスの間に強い相関関係がみられた。
本稿では,段階的なタスクとクラスワイドなセマンティックな関係を関連付けることを学習するクラスインクリメンタルラーニング(COIL)のためのCO-Transportを提案する。
- 参考スコア(独自算出の注目度): 38.57786747665563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional learning systems are trained in closed-world for a fixed number
of classes, and need pre-collected datasets in advance. However, new classes
often emerge in real-world applications and should be learned incrementally.
For example, in electronic commerce, new types of products appear daily, and in
a social media community, new topics emerge frequently. Under such
circumstances, incremental models should learn several new classes at a time
without forgetting. We find a strong correlation between old and new classes in
incremental learning, which can be applied to relate and facilitate different
learning stages mutually. As a result, we propose CO-transport for class
Incremental Learning (COIL), which learns to relate across incremental tasks
with the class-wise semantic relationship. In detail, co-transport has two
aspects: prospective transport tries to augment the old classifier with optimal
transported knowledge as fast model adaptation. Retrospective transport aims to
transport new class classifiers backward as old ones to overcome forgetting.
With these transports, COIL efficiently adapts to new tasks, and stably resists
forgetting. Experiments on benchmark and real-world multimedia datasets
validate the effectiveness of our proposed method.
- Abstract(参考訳): 従来の学習システムは、一定の数のクラスのためにクローズドワールドで訓練され、事前に収集されたデータセットが必要である。
しかし、新しいクラスは現実世界のアプリケーションでしばしば現れ、漸進的に学ぶべきである。
例えば、電子商取引では、新しいタイプの製品が毎日出現し、ソーシャルメディアコミュニティでは、新しいトピックが頻繁に出現する。
このような状況下では、インクリメンタルモデルは忘れずに、複数の新しいクラスを一度に学習する必要がある。
異なる学習段階を相互に関連付け、促進するために適用できるインクリメンタル学習において、古いクラスと新しいクラスの間に強い相関関係を見出した。
その結果,段階的なタスクとクラスワイドなセマンティックな関係を関連付けることを学習するクラスインクリメンタルラーニング(COIL)のCO-transportを提案する。
プロスペクティブトランスポート(prospective transport)は、高速なモデル適応として、最適なトランスポートされた知識で古い分類器を強化しようとする。
ふりかえり輸送は、新しいクラス分類器を古いものとして後方に移動して忘れを克服することを目的としている。
これらの輸送により、COILは新しいタスクに効率的に適応し、忘れることに安定して抵抗する。
ベンチマークおよび実世界のマルチメディアデータセットを用いた実験により,提案手法の有効性が検証された。
関連論文リスト
- COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - Deep Class-Incremental Learning: A Survey [68.21880493796442]
常に変化する世界で、新しいクラスが時々現れます。
新しいクラスのインスタンスでモデルを直接トレーニングする場合、モデルは破滅的に以前のモデルの特徴を忘れる傾向があります。
ベンチマーク画像分類タスクにおける16の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Class-Incremental Learning with Cross-Space Clustering and Controlled
Transfer [9.356870107137093]
クラス増分学習では,従来のクラスに関する知識を維持しつつ,新しいクラスを継続的に学習することが期待される。
クラスインクリメンタルラーニングのための蒸留法に基づく2つの目的を提案する。
論文 参考訳(メタデータ) (2022-08-07T16:28:02Z) - Multi-Granularity Regularized Re-Balancing for Class Incremental
Learning [32.52884416761171]
ディープラーニングモデルは、新しいタスクを学ぶときに破滅的な忘れに苦しむ。
古いクラスと新しいクラスのデータの不均衡は、モデルのパフォーマンスが低下する鍵となる問題である。
この問題を解決するために,仮定に依存しないマルチグラニュラリティ正規化再バランシング法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:04:51Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Efficient Conditional GAN Transfer with Knowledge Propagation across
Classes [85.38369543858516]
CGANは、無条件設定と比較して新しい知識移転の機会を提供します。
新しいクラスは、関連する古いクラスから知識を借りたり、トレーニングを改善するために知識を共有したりする。
新しいGAN転送手法は、古いクラスから新しいクラスへの知識を明示的に伝達する。
論文 参考訳(メタデータ) (2021-02-12T18:55:34Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z) - Incremental Learning In Online Scenario [8.885829189810197]
現在の最先端の漸進的な学習手法では、新しいクラスが追加されるたびにモデルをトレーニングするのに長い時間がかかる。
本稿では,挑戦的なオンライン学習シナリオで機能するインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。