論文の概要: CoMBO: Conflict Mitigation via Branched Optimization for Class Incremental Segmentation
- arxiv url: http://arxiv.org/abs/2504.04156v1
- Date: Sat, 05 Apr 2025 12:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:11:37.358608
- Title: CoMBO: Conflict Mitigation via Branched Optimization for Class Incremental Segmentation
- Title(参考訳): CoMBO: クラスインクリメンタルセグメンテーションのための分岐最適化による競合緩和
- Authors: Kai Fang, Anqi Zhang, Guangyu Gao, Jianbo Jiao, Chi Harold Liu, Yunchao Wei,
- Abstract要約: 効果的なクラスインクリメンタル(CIS)は、破滅的な忘れを同時に緩和し、新しいクラスを統合するのに十分な可塑性を確保する必要がある。
分岐最適化(CoMBO)による競合緩和という新しいアプローチを導入する。
このアプローチでは、新しいクラスに対するクエリを明示的に洗練するために設計されたQuery Conflict Reductionモジュールを提示する。
- 参考スコア(独自算出の注目度): 75.35841972192684
- License:
- Abstract: Effective Class Incremental Segmentation (CIS) requires simultaneously mitigating catastrophic forgetting and ensuring sufficient plasticity to integrate new classes. The inherent conflict above often leads to a back-and-forth, which turns the objective into finding the balance between the performance of previous~(old) and incremental~(new) classes. To address this conflict, we introduce a novel approach, Conflict Mitigation via Branched Optimization~(CoMBO). Within this approach, we present the Query Conflict Reduction module, designed to explicitly refine queries for new classes through lightweight, class-specific adapters. This module provides an additional branch for the acquisition of new classes while preserving the original queries for distillation. Moreover, we develop two strategies to further mitigate the conflict following the branched structure, \textit{i.e.}, the Half-Learning Half-Distillation~(HDHL) over classification probabilities, and the Importance-Based Knowledge Distillation~(IKD) over query features. HDHL selectively engages in learning for classification probabilities of queries that match the ground truth of new classes, while aligning unmatched ones to the corresponding old probabilities, thus ensuring retention of old knowledge while absorbing new classes via learning negative samples. Meanwhile, IKD assesses the importance of queries based on their matching degree to old classes, prioritizing the distillation of important features and allowing less critical features to evolve. Extensive experiments in Class Incremental Panoptic and Semantic Segmentation settings have demonstrated the superior performance of CoMBO. Project page: https://guangyu-ryan.github.io/CoMBO.
- Abstract(参考訳): 効果的なクラスインクリメンタルセグメンテーション(CIS)は、破滅的な忘れを同時に緩和し、新しいクラスを統合するのに十分な可塑性を確保する必要がある。
上記の固有の衝突は、しばしばバック・アンド・フォース(back-and-forth)につながる。これにより、目的が以前の~(old)クラスとインクリメンタル~(new)クラスのパフォーマンスのバランスを見つけるようになる。
この対立に対処するため、我々は、分岐最適化による紛争緩和(CoMBO)という新しいアプローチを導入する。
このアプローチでは、軽量なクラス固有のアダプタを通じて、新しいクラスに対するクエリを明示的に洗練するために設計されたQuery Conflict Reductionモジュールを提示する。
このモジュールは、蒸留のためのオリジナルのクエリを保持しながら、新しいクラスを取得するための追加のブランチを提供する。
さらに、分枝構造における対立を緩和する2つの戦略、分類確率に関する半学習半蒸留〜(HDHL)、クエリ機能に関する重要知識蒸留〜(IKD)の2つの戦略を開発する。
HDHLは、新しいクラスの基礎的真理に一致するクエリの分類確率の学習を選択的に行い、未一致のクラスを対応する古い確率に整列させ、学習陰性サンプルを通じて新しいクラスを吸収しながら古い知識の保持を確保する。
一方、IKDは、古いクラスに適合する度合いに基づいてクエリの重要性を評価し、重要な機能の蒸留を優先し、重要でない機能の進化を可能にする。
クラスインクリメンタル・パノプティクスおよびセマンティック・セグメンテーション・セッティングにおける大規模な実験は、CoMBOの優れた性能を示した。
プロジェクトページ: https://guangyu-ryan.github.io/CoMBO
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - I2CANSAY:Inter-Class Analogical Augmentation and Intra-Class Significance Analysis for Non-Exemplar Online Task-Free Continual Learning [42.608860809847236]
オンラインタスクフリー連続学習(OTFCL)は、継続学習のより困難なバリエーションである。
既存のメソッドは、忘れるのを防ぐために古いサンプルで構成されたメモリバッファに依存している。
我々は,メモリバッファへの依存をなくし,ワンショットサンプルから新しいデータの知識を効率的に学習するI2CANSAYという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T08:28:52Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Federated Incremental Semantic Segmentation [42.66387280141536]
フェデレート学習に基づくセマンティックセマンティックセグメンテーション(FSS)は、ローカルクライアントでの分散トレーニングを通じて広く注目を集めている。
ほとんどのFSSモデルは、カテゴリが事前に固定されていると仮定しており、実用的な応用において古いカテゴリを忘れている。
本稿では,クライアント内およびクライアント間両方の側面から,古いクラスにおける異種忘れに対処するフォッッティングベース学習モデルを提案する。
論文 参考訳(メタデータ) (2023-04-10T14:34:23Z) - Conflict-Based Cross-View Consistency for Semi-Supervised Semantic
Segmentation [34.97083511196799]
半教師付きセマンティックセグメンテーション(SSS)は近年研究の関心が高まっている。
現在の手法は、しばしば擬似ラベリングプロセスの確証バイアスに悩まされる。
本稿では,2分岐協調学習フレームワークに基づく新しいコンフリクトベースクロスビュー整合性(CCVC)手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T14:02:16Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Few-Shot Object Detection via Association and DIscrimination [83.8472428718097]
AssociationとDIscriminationによるオブジェクト検出は、新しいクラスごとに2つのステップで識別可能な特徴空間を構築している。
Pascal VOCとMS-COCOデータセットの実験では、FADIは新しいSOTAパフォーマンスを実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
論文 参考訳(メタデータ) (2021-11-23T05:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。