論文の概要: SimCS: Simulation for Online Domain-Incremental Continual Segmentation
- arxiv url: http://arxiv.org/abs/2211.16234v1
- Date: Tue, 29 Nov 2022 14:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:17:58.791915
- Title: SimCS: Simulation for Online Domain-Incremental Continual Segmentation
- Title(参考訳): simcs: online domain-incremental continual segmentation のシミュレーション
- Authors: Motasem Alfarra, Zhipeng Cai, Adel Bibi, Bernard Ghanem, Matthias
M\"uller
- Abstract要約: 既存の連続学習アプローチは主に、明確なタスク境界と無制限の計算予算を持つクラス増分設定における画像分類に焦点を当てている。
ODICSでは、モデルは異なるドメインから高密度にラベル付けされた画像のバッチで継続的に表示され、計算は限られており、タスク境界に関する情報は得られない。
シミュレーションデータを連続学習正規化器として活用するパラメータフリー手法であるSimCSを提案する。
- 参考スコア(独自算出の注目度): 64.85368168372078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning is a step towards lifelong intelligence where models
continuously learn from recently collected data without forgetting previous
knowledge. Existing continual learning approaches mostly focus on image
classification in the class-incremental setup with clear task boundaries and
unlimited computational budget. This work explores Online Domain-Incremental
Continual Segmentation~(ODICS), a real-world problem that arises in many
applications, \eg, autonomous driving. In ODICS, the model is continually
presented with batches of densely labeled images from different domains;
computation is limited and no information about the task boundaries is
available. In autonomous driving, this may correspond to the realistic scenario
of training a segmentation model over time on a sequence of cities. We analyze
several existing continual learning methods and show that they do not perform
well in this setting despite working well in class-incremental segmentation. We
propose SimCS, a parameter-free method complementary to existing ones that
leverages simulated data as a continual learning regularizer. Extensive
experiments show consistent improvements over different types of continual
learning methods that use regularizers and even replay.
- Abstract(参考訳): 継続学習は、モデルが過去の知識を忘れずに最近収集されたデータから継続的に学習する、生涯的知性へのステップである。
既存の連続学習アプローチは主に、明確なタスク境界と無制限の計算予算を持つクラス増分設定における画像分類に焦点を当てている。
この研究は、多くのアプリケーションで発生する現実的な問題であるオンラインドメイン・インクリメンタル連続セグメンテーション(ODICS)を探求する。
ODICSでは、モデルは異なるドメインから高密度にラベル付けされた画像のバッチで継続的に表示され、計算は限られており、タスク境界に関する情報は得られない。
自律運転では、これは複数の都市で時間をかけてセグメンテーションモデルを訓練する現実的なシナリオに対応しているかもしれない。
本研究では,既存の連続学習手法を解析し,クラス増分法ではうまく機能しないことを示す。
シミュレーションデータを連続学習正規化器として活用するパラメータフリー手法であるSimCSを提案する。
広範な実験では、レギュラライザやリプレイを用いた、さまざまなタイプの連続学習方法に対して一貫した改善が示されている。
関連論文リスト
- Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Continual Road-Scene Semantic Segmentation via Feature-Aligned Symmetric
Multi-Modal Network [21.93241419510555]
我々は、密結合した特徴表現と対称情報共有スキームを強制することにより、マルチモーダルなセマンティックセマンティックセマンティクスのタスクを再構築する。
これにより、自動運転車の場合と同様に、安全クリティカルな設定でもモデルが信頼性を保ちます。
論文 参考訳(メタデータ) (2023-08-09T04:46:16Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - Building a Subspace of Policies for Scalable Continual Learning [21.03369477853538]
本稿では,一連のタスクで強化学習エージェントを訓練するためのポリシーのサブスペースを段階的に構築する新しいアプローチであるContinuous Subspace of Policies(CSP)を紹介する。
CSPは、Brax(ロコモーション)とContinuous World(操作)という2つの挑戦的なドメインから幅広いシナリオにおいて、多くの人気ベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-18T14:59:42Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。