論文の概要: SimCS: Simulation for Domain Incremental Online Continual Segmentation
- arxiv url: http://arxiv.org/abs/2211.16234v2
- Date: Thu, 15 Feb 2024 12:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 21:26:20.690711
- Title: SimCS: Simulation for Domain Incremental Online Continual Segmentation
- Title(参考訳): simcs: ドメインインクリメンタルオンライン連続セグメンテーションのためのシミュレーション
- Authors: Motasem Alfarra, Zhipeng Cai, Adel Bibi, Bernard Ghanem, Matthias
M\"uller
- Abstract要約: 既存の継続学習アプローチは、主にクラス増分設定における画像分類に焦点を当てている。
シミュレーションデータを用いて連続学習を規則化するパラメータフリー手法であるSimCSを提案する。
- 参考スコア(独自算出の注目度): 60.18777113752866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning is a step towards lifelong intelligence where models
continuously learn from recently collected data without forgetting previous
knowledge. Existing continual learning approaches mostly focus on image
classification in the class-incremental setup with clear task boundaries and
unlimited computational budget. This work explores the problem of Online
Domain-Incremental Continual Segmentation (ODICS), where the model is
continually trained over batches of densely labeled images from different
domains, with limited computation and no information about the task boundaries.
ODICS arises in many practical applications. In autonomous driving, this may
correspond to the realistic scenario of training a segmentation model over time
on a sequence of cities. We analyze several existing continual learning methods
and show that they perform poorly in this setting despite working well in
class-incremental segmentation. We propose SimCS, a parameter-free method
complementary to existing ones that uses simulated data to regularize continual
learning. Experiments show that SimCS provides consistent improvements when
combined with different CL methods.
- Abstract(参考訳): 継続学習は、モデルが過去の知識を忘れずに最近収集されたデータから継続的に学習する、生涯的知性へのステップである。
既存の連続学習アプローチは主に、明確なタスク境界と無制限の計算予算を持つクラス増分設定における画像分類に焦点を当てている。
この研究は、異なるドメインの密にラベル付けされた画像のバッチでモデルが継続的に訓練されるオンラインドメイン・インクリメンタル・コンティニュアル・セグメンテーション(odics)の問題を探求する。
ODICSは多くの実用的応用に現れる。
自律運転では、これは複数の都市で時間をかけてセグメンテーションモデルを訓練する現実的なシナリオに対応しているかもしれない。
本研究では,既存の連続学習手法を複数解析し,クラスインクリメンタルセグメンテーションにおいてうまく機能しているにもかかわらず,この環境では性能が良くないことを示す。
シミュレーションデータを用いて連続学習を規則化するパラメータフリー手法であるSimCSを提案する。
実験によると、SimCSは異なるCLメソッドと組み合わせて一貫した改善を提供する。
関連論文リスト
- Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Continual Road-Scene Semantic Segmentation via Feature-Aligned Symmetric
Multi-Modal Network [21.93241419510555]
我々は、密結合した特徴表現と対称情報共有スキームを強制することにより、マルチモーダルなセマンティックセマンティックセマンティクスのタスクを再構築する。
これにより、自動運転車の場合と同様に、安全クリティカルな設定でもモデルが信頼性を保ちます。
論文 参考訳(メタデータ) (2023-08-09T04:46:16Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - Building a Subspace of Policies for Scalable Continual Learning [21.03369477853538]
本稿では,一連のタスクで強化学習エージェントを訓練するためのポリシーのサブスペースを段階的に構築する新しいアプローチであるContinuous Subspace of Policies(CSP)を紹介する。
CSPは、Brax(ロコモーション)とContinuous World(操作)という2つの挑戦的なドメインから幅広いシナリオにおいて、多くの人気ベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-18T14:59:42Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。