論文の概要: Federated Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2304.04620v1
- Date: Mon, 10 Apr 2023 14:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:41:52.302781
- Title: Federated Incremental Semantic Segmentation
- Title(参考訳): フェデレートインクリメンタルセマンティックセグメンテーション
- Authors: Jiahua Dong, Duzhen Zhang, Yang Cong, Wei Cong, Henghui Ding, Dengxin
Dai
- Abstract要約: フェデレート学習に基づくセマンティックセマンティックセグメンテーション(FSS)は、ローカルクライアントでの分散トレーニングを通じて広く注目を集めている。
ほとんどのFSSモデルは、カテゴリが事前に固定されていると仮定しており、実用的な応用において古いカテゴリを忘れている。
本稿では,クライアント内およびクライアント間両方の側面から,古いクラスにおける異種忘れに対処するフォッッティングベース学習モデルを提案する。
- 参考スコア(独自算出の注目度): 42.66387280141536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning-based semantic segmentation (FSS) has drawn widespread
attention via decentralized training on local clients. However, most FSS models
assume categories are fixed in advance, thus heavily undergoing forgetting on
old categories in practical applications where local clients receive new
categories incrementally while have no memory storage to access old classes.
Moreover, new clients collecting novel classes may join in the global training
of FSS, which further exacerbates catastrophic forgetting. To surmount the
above challenges, we propose a Forgetting-Balanced Learning (FBL) model to
address heterogeneous forgetting on old classes from both intra-client and
inter-client aspects. Specifically, under the guidance of pseudo labels
generated via adaptive class-balanced pseudo labeling, we develop a
forgetting-balanced semantic compensation loss and a forgetting-balanced
relation consistency loss to rectify intra-client heterogeneous forgetting of
old categories with background shift. It performs balanced gradient propagation
and relation consistency distillation within local clients. Moreover, to tackle
heterogeneous forgetting from inter-client aspect, we propose a task transition
monitor. It can identify new classes under privacy protection and store the
latest old global model for relation distillation. Qualitative experiments
reveal large improvement of our model against comparison methods. The code is
available at https://github.com/JiahuaDong/FISS.
- Abstract(参考訳): フェデレーション学習に基づくセマンティクスセグメンテーション(fss)は,ローカルクライアントに対する分散トレーニングを通じて広く注目を集めている。
しかし、ほとんどのFSSモデルは、カテゴリが事前に固定されていると仮定しているため、ローカルクライアントが新しいカテゴリを段階的に受け取る一方で、古いクラスにアクセスするメモリストレージを持たない実践的なアプリケーションでは、古いカテゴリを忘れている。
さらに、新しいクラスを収集する新たなクライアントがFSSのグローバルトレーニングに参加し、破滅的な忘れがさらに悪化する可能性がある。
上記の課題を克服するために,クライアント内およびクライアント間両方の面から,古いクラスにおける異種忘れに対処するフォッッティングベースラーニング(FBL)モデルを提案する。
具体的には、適応型クラスバランス付き擬似ラベリングによって生成された擬似ラベルのガイダンスに基づき、背景シフトを伴う古いカテゴリの従属内不均一な忘れを正すために、無視バランス付き意味補償損失と忘れバランス付き関係整合損失を開発する。
局所クライアント内でバランスのとれた勾配伝播と関係整合性蒸留を行う。
さらに,クライアント間からヘテロジニアスな忘れる問題に対処するために,タスク遷移モニタを提案する。
プライバシー保護の下で新しいクラスを識別し、関係蒸留のための最新のグローバルモデルを保存することができる。
定性的な実験により,比較法に対するモデルの大幅な改善が示された。
コードはhttps://github.com/JiahuaDong/FISSで入手できる。
関連論文リスト
- Federated Incremental Named Entity Recognition [38.49410747627772]
フェデレートされた名前付きエンティティ認識(FNER)は、プライベートデータを共有することなく、分散化されたローカルクライアントのモデル更新を集約することで、各ローカルクライアント内のモデルトレーニングを促進する。
既存のFNERメソッドは、固定されたエンティティタイプとローカルクライアントを事前に仮定する。
本稿では,これらの課題を克服するローカル・グローバル・フォーッティング・ディフェンス(LGFD)モデルを提案する。
論文 参考訳(メタデータ) (2024-11-18T14:53:53Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - No One Left Behind: Real-World Federated Class-Incremental Learning [111.77681016996202]
ローカル・グローバル・アンチ・フォーゲッティング(LGA)モデルは、局所的およびグローバルな破滅的な忘れに対処する。
本研究は,カテゴリ均衡型勾配適応型補償損失とカテゴリ勾配誘導型セマンティック蒸留損失を開発する。
ローカルクライアントから収集した新しいカテゴリの摂動型プロトタイプイメージを、自己監督型プロトタイプ拡張を通じて拡張する。
論文 参考訳(メタデータ) (2023-02-02T06:41:02Z) - FedFA: Federated Learning with Feature Anchors to Align Features and
Classifiers for Heterogeneous Data [8.677832361022809]
フェデレーション学習は、複数のクライアントがデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
一般的な解決策は、局所訓練中に体重のばらつきや特徴の不整合を規則化する補助的な損失を含む。
我々はFederated Learning with Feature Anchors (FedFA)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-17T02:27:44Z) - Federated Class-Incremental Learning [32.676616274338734]
フェデレートラーニング(FL)は、分散クライアント上でのデータプライベートなコラボレーティブトレーニングを通じて注目を集めている。
ほとんどの既存のメソッドは、フレームワーク全体のオブジェクトクラスが時間とともに固定されていると非現実的に仮定します。
我々は,グローバルクラスインクリメンタルモデルを学ぶために,Global-Local Forgetting Compensation (GLFC) モデルを開発した。
論文 参考訳(メタデータ) (2022-03-22T05:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。