論文の概要: Dynamic Y-KD: A Hybrid Approach to Continual Instance Segmentation
- arxiv url: http://arxiv.org/abs/2303.06015v3
- Date: Mon, 11 Sep 2023 15:26:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 22:11:18.151128
- Title: Dynamic Y-KD: A Hybrid Approach to Continual Instance Segmentation
- Title(参考訳): 動的Y-KD:連続インスタンスセグメンテーションへのハイブリッドアプローチ
- Authors: Mathieu Pag\'e-Fortin, Brahim Chaib-draa
- Abstract要約: 本稿では,教師と学生のネットワーク間で共通の特徴抽出器を共有する手法を提案する。
第2に、タスク固有のモジュールをトレーニングする動的アーキテクチャ手法によって、Y-KDアプローチがサポートされます。
第三に、チェックポイント平均化を、様々なクラスのパフォーマンス間のトレードオフを手動でバランスさせる単純な方法として活用することで、アプローチを完了します。
- 参考スコア(独自算出の注目度): 4.541582055558866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of deep learning models on instance segmentation, current
methods still suffer from catastrophic forgetting in continual learning
scenarios. In this paper, our contributions for continual instance segmentation
are threefold. First, we propose the Y-knowledge distillation (Y-KD), a
technique that shares a common feature extractor between the teacher and
student networks. As the teacher is also updated with new data in Y-KD, the
increased plasticity results in new modules that are specialized on new
classes. Second, our Y-KD approach is supported by a dynamic architecture
method that trains task-specific modules with a unique instance segmentation
head, thereby significantly reducing forgetting. Third, we complete our
approach by leveraging checkpoint averaging as a simple method to manually
balance the trade-off between performance on the various sets of classes, thus
increasing control over the model's behavior without any additional cost. These
contributions are united in our model that we name the Dynamic Y-KD network.
We perform extensive experiments on several single-step and multi-steps
incremental learning scenarios, and we show that our approach outperforms
previous methods both on past and new classes. For instance, compared to recent
work, our method obtains +2.1% mAP on old classes in 15-1, +7.6% mAP on new
classes in 19-1 and reaches 91.5% of the mAP obtained by joint-training on all
classes in 15-5.
- Abstract(参考訳): インスタンスセグメンテーションにおけるディープラーニングモデルの成功にもかかわらず、現在の手法は継続的な学習シナリオにおける破滅的な忘れ込みに悩まされている。
本稿では,連続インスタンスセグメンテーションに対する我々の貢献が3倍になる。
まず,教師と学生のネットワーク間で共通の特徴抽出器を共有するY-knowledge蒸留(Y-KD)を提案する。
教師がY-KDの新しいデータで更新されるにつれて、新しいクラスに特化している新しいモジュールの可塑性が増大する。
第2に、Y-KDアプローチは、タスク固有のモジュールをユニークなインスタンスセグメンテーションヘッドでトレーニングする動的アーキテクチャ手法によってサポートされています。
第3に、チェックポイント平均化を、様々なクラスのパフォーマンス間のトレードオフを手作業でバランスさせるシンプルな方法として活用することで、モデル動作の制御を余分なコストなしで向上させる。
これらのコントリビューションは、動的Y-KDネットワークと呼ばれるモデルで統合されています。
単段階・複数段階の漸進的な学習シナリオについて広範囲に実験を行い,過去の手法と新しい手法を比較検討した。
例えば、最近の研究と比較すると、15-1では古いクラスで2.1% mAP、19-1では新しいクラスで7.6% mAP、そして15-5では全てのクラスで共同トレーニングによって得られたmAPの91.5%に達する。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - iNeMo: Incremental Neural Mesh Models for Robust Class-Incremental Learning [22.14627083675405]
我々は、時間とともに新しいメッシュで拡張できるインクリメンタルニューラルネットワークモデルを提案する。
本研究では,Pascal3DおよびObjectNet3Dデータセットの広範な実験を通して,本手法の有効性を実証する。
我々の研究は、ポーズ推定のための最初の漸進的な学習手法も提示している。
論文 参考訳(メタデータ) (2024-07-12T13:57:49Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Modeling Inter-Class and Intra-Class Constraints in Novel Class
Discovery [20.67503042774617]
新たなクラス発見(NCD)は、クラス非結合なラベル付きデータセットから別の非ラベル付きデータセットへ共通の知識を転送するモデルを学ぶことを目的としている。
対称KKLD(Kullback-Leibler divergence)に基づくNCDにおけるクラス間制約とクラス内制約の両方をモデル化する。
論文 参考訳(メタデータ) (2022-10-07T14:46:32Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Static-Dynamic Co-Teaching for Class-Incremental 3D Object Detection [71.18882803642526]
ディープラーニングアプローチは、3Dオブジェクト検出タスクにおいて顕著なパフォーマンスを示している。
古いデータを再考することなく、新しいクラスを漸進的に学習するときに、破滅的なパフォーマンス低下に悩まされる。
この「破滅的な忘れ物」現象は、現実世界のシナリオにおける3Dオブジェクト検出アプローチの展開を妨げる。
SDCoTは,新しい静的なコティーチング手法である。
論文 参考訳(メタデータ) (2021-12-14T09:03:41Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - Self-Promoted Prototype Refinement for Few-Shot Class-Incremental
Learning [81.10531943939365]
クラスインクリメンタルな学習は、サンプルが少ないと新しいクラスを認識し、古いクラスを忘れないことである。
本稿では,様々なエピソードに特徴表現を適応させる新しいインクリメンタルなプロトタイプ学習手法を提案する。
3つのベンチマークデータセットの実験では、上記の段階的なパフォーマンスを示し、それぞれ13%、17%、11%のマージンで最先端のメソッドを上回っている。
論文 参考訳(メタデータ) (2021-07-19T14:31:33Z) - Ada-Segment: Automated Multi-loss Adaptation for Panoptic Segmentation [95.31590177308482]
我々は,トレーニング期間中に複数のトレーニング損失を柔軟に調整する自動マルチロス適応(ada-segment)を提案する。
エンドツーエンドアーキテクチャにより、ada-segmentはハイパーパラメータを再チューニングすることなく、異なるデータセットに一般化する。
Ada-Segmentは、バニラベースラインからCOCOval分割に2.7%のパノラマ品質(PQ)改善をもたらし、COCOテストデブ分割に最新の48.5%PQ、ADE20Kデータセットに32.9%PQを達成しました。
論文 参考訳(メタデータ) (2020-12-07T11:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。