論文の概要: AWF: Adaptive Weight Fusion for Enhanced Class Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2409.08516v1
- Date: Fri, 13 Sep 2024 03:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:48:25.302216
- Title: AWF: Adaptive Weight Fusion for Enhanced Class Incremental Semantic Segmentation
- Title(参考訳): AWF: 拡張型インクリメンタルセマンティックセマンティックセグメンテーションのための適応重み融合
- Authors: Zechao Sun, Haolin Jin, Weitong Chen, Luping Zhou,
- Abstract要約: 本稿では,アダプティブ・ウェイト・フュージョン (Adaptive Weight Fusion, AWF) と呼ばれる拡張アプローチを提案する。
AWFは、古い知識の保持と新しいクラスの学習とのバランスを改善し、ベンチマークCISSタスクの結果を大幅に改善することで、優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 20.55260199506094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class Incremental Semantic Segmentation (CISS) aims to mitigate catastrophic forgetting by maintaining a balance between previously learned and newly introduced knowledge. Existing methods, primarily based on regularization techniques like knowledge distillation, help preserve old knowledge but often face challenges in effectively integrating new knowledge, resulting in limited overall improvement. Endpoints Weight Fusion (EWF) method, while simple, effectively addresses some of these limitations by dynamically fusing the model weights from previous steps with those from the current step, using a fusion parameter alpha determined by the relative number of previously known classes and newly introduced classes. However, the simplicity of the alpha calculation may limit its ability to fully capture the complexities of different task scenarios, potentially leading to suboptimal fusion outcomes. In this paper, we propose an enhanced approach called Adaptive Weight Fusion (AWF), which introduces an alternating training strategy for the fusion parameter, allowing for more flexible and adaptive weight integration. AWF achieves superior performance by better balancing the retention of old knowledge with the learning of new classes, significantly improving results on benchmark CISS tasks compared to the original EWF. And our experiment code will be released on Github.
- Abstract(参考訳): クラスインクリメンタルセマンティックセグメンテーション(CISS)は、これまで学んだ知識と新しく導入された知識のバランスを維持することで、破滅的な忘れを緩和することを目的としている。
既存の方法は、主に知識蒸留のような正規化技術に基づいており、古い知識を保存するのに役立つが、しばしば新しい知識を効果的に統合する際の課題に直面し、結果として全体的な改善が制限される。
Endpoints Weight Fusion (EWF) 法は、従来のステップと現在のステップとのモデルの重みを動的に融合することで、これらの制限のいくつかに効果的に対処する。
しかし、アルファ計算の単純さは、異なるタスクシナリオの複雑さを完全に捉える能力を制限し、おそらくは準最適融合の結果をもたらす可能性がある。
本稿では,アダプティブ・ウェイト・フュージョン (AWF) と呼ばれる拡張アプローチを提案し,融合パラメータの交互トレーニング戦略を導入し,より柔軟で適応的なウェイト・インテグレーションを実現する。
AWFは、古い知識の保持と新しいクラスの学習とのバランスを改善し、元のEWFと比較してベンチマークCISSタスクの結果を大幅に改善することで、優れた性能を達成する。
実験コードはGithubで公開される予定です。
関連論文リスト
- ReconBoost: Boosting Can Achieve Modality Reconcilement [89.4377895465204]
我々は、調和を達成するために、モダリティ代替学習パラダイムについて研究する。
固定モードを毎回更新するReconBoostと呼ばれる新しい手法を提案する。
提案手法はFriedman's Gradient-Boosting (GB) アルゴリズムに似ており,更新された学習者が他者による誤りを訂正できることを示す。
論文 参考訳(メタデータ) (2024-05-15T13:22:39Z) - Continual Learning with Weight Interpolation [4.689826327213979]
継続的な学習には、モデルが以前のタスクからの知識を維持しながら、新しいタスクに適応する必要がある。
本稿では,重み強化手法を用いた継続学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-05T10:25:40Z) - Enhanced Few-Shot Class-Incremental Learning via Ensemble Models [34.84881941101568]
クラス増分学習(class-incremental learning)は、新しいクラスを限られたトレーニングデータに継続的に適合させることを目的としている。
主な課題は、珍しい新しいトレーニングサンプルを過度に適合させ、古いクラスを忘れることである。
本稿では,データ拡張と協調して一般化を促進する新しいアンサンブルモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-14T06:07:07Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - FedCostWAvg: A new averaging for better Federated Learning [1.1245087602142634]
我々は,MICCAIフェデレーション・腫瘍・チャレンジ2021で優勝したフェデレーション・ラーニングのための新しいアグリゲーション戦略を提案する。
提案手法は,異なるデータセットで学習した複数のモデルを集約する方法の問題に対処する。
論文 参考訳(メタデータ) (2021-11-16T17:31:58Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Meta-Learning with Adaptive Hyperparameters [55.182841228303225]
我々は、MAMLフレームワークの補完的要素、インナーループ最適化(あるいは高速適応)に焦点を当てる。
高速適応プロセスを大幅に向上させる新しい重み更新ルールを提案する。
論文 参考訳(メタデータ) (2020-10-31T08:05:34Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。