論文の概要: SimCS: Simulation for Online Domain-Incremental Continual Segmentation
- arxiv url: http://arxiv.org/abs/2211.16234v1
- Date: Tue, 29 Nov 2022 14:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:17:58.791915
- Title: SimCS: Simulation for Online Domain-Incremental Continual Segmentation
- Title(参考訳): simcs: online domain-incremental continual segmentation のシミュレーション
- Authors: Motasem Alfarra, Zhipeng Cai, Adel Bibi, Bernard Ghanem, Matthias
M\"uller
- Abstract要約: 既存の連続学習アプローチは主に、明確なタスク境界と無制限の計算予算を持つクラス増分設定における画像分類に焦点を当てている。
ODICSでは、モデルは異なるドメインから高密度にラベル付けされた画像のバッチで継続的に表示され、計算は限られており、タスク境界に関する情報は得られない。
シミュレーションデータを連続学習正規化器として活用するパラメータフリー手法であるSimCSを提案する。
- 参考スコア(独自算出の注目度): 64.85368168372078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning is a step towards lifelong intelligence where models
continuously learn from recently collected data without forgetting previous
knowledge. Existing continual learning approaches mostly focus on image
classification in the class-incremental setup with clear task boundaries and
unlimited computational budget. This work explores Online Domain-Incremental
Continual Segmentation~(ODICS), a real-world problem that arises in many
applications, \eg, autonomous driving. In ODICS, the model is continually
presented with batches of densely labeled images from different domains;
computation is limited and no information about the task boundaries is
available. In autonomous driving, this may correspond to the realistic scenario
of training a segmentation model over time on a sequence of cities. We analyze
several existing continual learning methods and show that they do not perform
well in this setting despite working well in class-incremental segmentation. We
propose SimCS, a parameter-free method complementary to existing ones that
leverages simulated data as a continual learning regularizer. Extensive
experiments show consistent improvements over different types of continual
learning methods that use regularizers and even replay.
- Abstract(参考訳): 継続学習は、モデルが過去の知識を忘れずに最近収集されたデータから継続的に学習する、生涯的知性へのステップである。
既存の連続学習アプローチは主に、明確なタスク境界と無制限の計算予算を持つクラス増分設定における画像分類に焦点を当てている。
この研究は、多くのアプリケーションで発生する現実的な問題であるオンラインドメイン・インクリメンタル連続セグメンテーション(ODICS)を探求する。
ODICSでは、モデルは異なるドメインから高密度にラベル付けされた画像のバッチで継続的に表示され、計算は限られており、タスク境界に関する情報は得られない。
自律運転では、これは複数の都市で時間をかけてセグメンテーションモデルを訓練する現実的なシナリオに対応しているかもしれない。
本研究では,既存の連続学習手法を解析し,クラス増分法ではうまく機能しないことを示す。
シミュレーションデータを連続学習正規化器として活用するパラメータフリー手法であるSimCSを提案する。
広範な実験では、レギュラライザやリプレイを用いた、さまざまなタイプの連続学習方法に対して一貫した改善が示されている。
関連論文リスト
- A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - Building a Subspace of Policies for Scalable Continual Learning [21.03369477853538]
本稿では,一連のタスクで強化学習エージェントを訓練するためのポリシーのサブスペースを段階的に構築する新しいアプローチであるContinuous Subspace of Policies(CSP)を紹介する。
CSPは、Brax(ロコモーション)とContinuous World(操作)という2つの挑戦的なドメインから幅広いシナリオにおいて、多くの人気ベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-18T14:59:42Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - Online Constrained Model-based Reinforcement Learning [13.362455603441552]
主要な要件は、限られた時間とリソース予算内に留まりながら、継続的な状態とアクションスペースを扱う能力である。
本稿では,ガウス過程回帰と回帰水平制御を組み合わせたモデルに基づくアプローチを提案する。
本研究では,自動走行作業におけるオンライン学習のメリットを実証する。
論文 参考訳(メタデータ) (2020-04-07T15:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。