論文の概要: Delving into Transformer for Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2211.10253v1
- Date: Fri, 18 Nov 2022 14:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:09:37.293182
- Title: Delving into Transformer for Incremental Semantic Segmentation
- Title(参考訳): インクリメンタルセマンティックセグメンテーションのためのトランスへの埋め込み
- Authors: Zekai Xu, Mingyi Zhang, Jiayue Hou, Xing Gong, Chuan Wen, Chengjie
Wang, Junge Zhang
- Abstract要約: インクリメンタルセマンティックセグメンテーション(ISS)は、新しいクラスを追加することで古いモデルを更新する新しいタスクである。
そこで本研究では,ISSのためのトランスフォーマー方式を提案し,それに基づいてISSを提案する。
広範囲な実験環境下では,本手法は最先端のインクリメンタルセマンティックセグメンテーション法よりも優れていた。
- 参考スコア(独自算出の注目度): 24.811247377533178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental semantic segmentation(ISS) is an emerging task where old model is
updated by incrementally adding new classes. At present, methods based on
convolutional neural networks are dominant in ISS. However, studies have shown
that such methods have difficulty in learning new tasks while maintaining good
performance on old ones (catastrophic forgetting). In contrast, a Transformer
based method has a natural advantage in curbing catastrophic forgetting due to
its ability to model both long-term and short-term tasks. In this work, we
explore the reasons why Transformer based architecture are more suitable for
ISS, and accordingly propose propose TISS, a Transformer based method for
Incremental Semantic Segmentation. In addition, to better alleviate
catastrophic forgetting while preserving transferability on ISS, we introduce
two patch-wise contrastive losses to imitate similar features and enhance
feature diversity respectively, which can further improve the performance of
TISS. Under extensive experimental settings with Pascal-VOC 2012 and ADE20K
datasets, our method significantly outperforms state-of-the-art incremental
semantic segmentation methods.
- Abstract(参考訳): インクリメンタルセマンティックセグメンテーション(ISS)は、新しいクラスを追加して古いモデルを更新する新しいタスクである。
現在、ISSでは畳み込みニューラルネットワークに基づく手法が主流である。
しかし、こうした手法は古いタスク(破滅的な忘れ)に対して優れたパフォーマンスを維持しつつ、新しいタスクを学ぶのが困難であることを研究は示している。
対照的に、Transformerベースの手法は、長期タスクと短期タスクの両方をモデル化できるため、破滅的な忘れを抑制することに自然な利点がある。
そこで本研究では,トランスフォーマティブ・アーキテクチャがissに適している理由を考察し,インクリメンタル・セグメンテーションのためのトランスフォーマ・ベースの手法であるtissを提案する。
さらに,ISS上での移動性を維持しつつ,破滅的な忘れを軽減すべく,類似した特徴を模倣し,特徴の多様性を高めるために2つのパッチワイドコントラスト損失を導入することにより,ISSの性能をさらに向上させることができる。
Pascal-VOC 2012 と ADE20K データセットによる広範な実験環境下では,本手法は最先端のインクリメンタルセマンティックセマンティックセグメンテーション法よりも優れていた。
関連論文リスト
- Birdie: Advancing State Space Models with Reward-Driven Objectives and Curricula [23.071384759427072]
状態空間モデル(SSM)はトランスフォーマーよりも利点があるが、長期のコンテキスト内検索のようなテキストコピー、連想リコール、質問応答を必要とするタスクに苦労する。
本研究では,SSMのコンテキスト内検索能力を大幅に向上する新たな学習手法であるBirdieを提案する。
論文 参考訳(メタデータ) (2024-11-01T21:01:13Z) - ConSept: Continual Semantic Segmentation via Adapter-based Vision
Transformer [65.32312196621938]
本稿では,AdapterベースのViT,すなわちConSeptを用いて連続的セマンティックベンチマークを提案する。
ConSeptは、軽量アテンションベースのアダプタをバニラViTに統合する。
提案手法は, 減数分裂防止のための蒸留法と, セグメンテーションマップの正則化のための二重ダイス損失の2つである。
論文 参考訳(メタデータ) (2024-02-26T15:51:45Z) - Waypoint Transformer: Reinforcement Learning via Supervised Learning
with Intermediate Targets [30.044393664203483]
中間目標を統合化してRvS法を強化する新しい手法を提案する。
我々は、DTフレームワーク上に構築され、自動生成されたウェイポイントに条件付けされたアーキテクチャを用いて、WT(Waypoint Transformer)を導入する。
その結果,従来のRvS法と比較して最終帰納率は有意に増加し,従来の時間差分学習法よりも同等以上の性能を示した。
論文 参考訳(メタデータ) (2023-06-24T22:25:29Z) - ISTRBoost: Importance Sampling Transfer Regression using Boosting [4.319090388509148]
現在のインスタンス転送学習(ITL)手法は、ドメイン適応とサブスペース変換を用いて、転送学習を成功させる。
ブースティング手法は,高比重の反復リウィーディングインスタンスにより過度に適合するリスクを低減することが示されている。
本稿では,2段階の TrAdaBoost.R2 という一般的な ITL 回帰手法を基盤として,この問題に対してよりシンプルで堅牢な修正を導入する。
論文 参考訳(メタデータ) (2022-04-26T02:48:56Z) - Representation Compensation Networks for Continual Semantic Segmentation [79.05769734989164]
深いニューラルネットワークが破滅的な忘れをせずに新しいクラスを継続的に組み込む必要がある,連続的なセマンティックセマンティックセグメンテーション問題について検討する。
本稿では,従来の知識と新しい知識の両方の表現学習を分離するために,構造的再パラメータ化機構である表現補償(RC)モジュールを提案する。
連続的なクラスセグメンテーションと連続的なドメインセグメンテーションという2つの挑戦的な意味セグメンテーションのシナリオについて実験を行う。
論文 参考訳(メタデータ) (2022-03-10T14:48:41Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Continuous Transition: Improving Sample Efficiency for Continuous
Control Problems via MixUp [119.69304125647785]
本稿では,連続的遷移を構築するための簡潔かつ強力な手法を提案する。
具体的には、連続的な遷移を線形に補間することにより、トレーニングのための新しい遷移を合成することを提案する。
また, 建設過程を自動案内する判別器を開発した。
論文 参考訳(メタデータ) (2020-11-30T01:20:23Z) - Evolving Metric Learning for Incremental and Decremental Features [45.696514400861275]
インクリメンタルおよびデクリメンタル機能のための新しいオンラインEvolving Metric Learningモデルを開発した。
我々のモデルはスムーズなワッサーシュタイン距離を組み込むことで、インスタンスと特徴の進化を同時に扱うことができる。
ワンショットケースでの課題に対処するだけでなく、モデルをマルチショットシナリオに拡張します。
論文 参考訳(メタデータ) (2020-06-27T10:29:38Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。