論文の概要: Continual Semantic Segmentation with Automatic Memory Sample Selection
- arxiv url: http://arxiv.org/abs/2304.05015v1
- Date: Tue, 11 Apr 2023 06:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 15:58:49.404696
- Title: Continual Semantic Segmentation with Automatic Memory Sample Selection
- Title(参考訳): 自動記憶サンプル選択による連続的意味セグメンテーション
- Authors: Lanyun Zhu, Tianrun Chen, Jianxiong Yin, Simon See, Jun Liu
- Abstract要約: 本稿では,有効再生のための情報化サンプルを完全自動で選択する新しいメモリサンプル選択機構を提案する。
本機構は,選択操作を意思決定プロセスとみなし,最適選択ポリシーを学習する。
Pascal-VOC 2012とADE 20Kデータセットに関する実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 8.857789973068789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Semantic Segmentation (CSS) extends static semantic segmentation by
incrementally introducing new classes for training. To alleviate the
catastrophic forgetting issue in CSS, a memory buffer that stores a small
number of samples from the previous classes is constructed for replay. However,
existing methods select the memory samples either randomly or based on a
single-factor-driven handcrafted strategy, which has no guarantee to be
optimal. In this work, we propose a novel memory sample selection mechanism
that selects informative samples for effective replay in a fully automatic way
by considering comprehensive factors including sample diversity and class
performance. Our mechanism regards the selection operation as a decision-making
process and learns an optimal selection policy that directly maximizes the
validation performance on a reward set. To facilitate the selection decision,
we design a novel state representation and a dual-stage action space. Our
extensive experiments on Pascal-VOC 2012 and ADE 20K datasets demonstrate the
effectiveness of our approach with state-of-the-art (SOTA) performance
achieved, outperforming the second-place one by 12.54% for the 6stage setting
on Pascal-VOC 2012.
- Abstract(参考訳): 継続的セマンティックセグメンテーション(CSS)は、トレーニング用の新しいクラスを漸進的に導入することによって、静的セマンティックセグメンテーションを拡張する。
CSSの破滅的な忘れの問題を軽減するため、前のクラスの少数のサンプルを格納するメモリバッファがリプレイ用に構築されている。
しかし、既存の手法ではランダムにメモリサンプルを選択するか、あるいは単一要素による手作り戦略に基づいて選択する。
本研究では,サンプルの多様性やクラス性能などの包括的要因を考慮し,効果的な再生のための情報的サンプルを選択する新しいメモリサンプル選択機構を提案する。
本機構は,選択操作を意思決定プロセスとみなし,報酬セット上での検証性能を直接最大化する最適選択ポリシーを学習する。
選択決定を容易にするために,新しい状態表現と2段階の動作空間を設計する。
Pascal-VOC 2012 と ADE 20K データセットに関する広範な実験は、私たちのアプローチが最先端(SOTA)のパフォーマンスを実現したことを示すものである。
関連論文リスト
- CIT: Rethinking Class-incremental Semantic Segmentation with a Class Independent Transformation [15.331388261763875]
クラスインクリメンタルセマンティックセマンティクス(CSS)では、モデルが以前のセマンティクスを忘れずに新しいクラスセマンティクスを学ぶ必要がある。
本稿では,既存のセマンティックセグメンテーションモデルの出力をクラス独立形式に変換する,シンプルで効果的なクラス独立変換(CIT)を提案する。
論文 参考訳(メタデータ) (2024-11-05T01:27:25Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - I2CANSAY:Inter-Class Analogical Augmentation and Intra-Class Significance Analysis for Non-Exemplar Online Task-Free Continual Learning [42.608860809847236]
オンラインタスクフリー連続学習(OTFCL)は、継続学習のより困難なバリエーションである。
既存のメソッドは、忘れるのを防ぐために古いサンプルで構成されたメモリバッファに依存している。
我々は,メモリバッファへの依存をなくし,ワンショットサンプルから新しいデータの知識を効率的に学習するI2CANSAYという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T08:28:52Z) - Boundary Matters: A Bi-Level Active Finetuning Framework [100.45000039215495]
アクティブファインタニングの概念は、限られた予算内でモデルファインタニングに最も適したサンプルを選択することを目的としている。
従来のアクティブな学習手法は、バッチ選択に固有のバイアスがあるため、この設定で苦労することが多い。
そこで本研究では,アノテーションのサンプルを1ショットで選択するバイレベルアクティブファインタニングフレームワークを提案し,その2段階として,多様性のためのコアサンプル選択と不確実性のための境界サンプル選択を提案する。
論文 参考訳(メタデータ) (2024-03-15T07:19:15Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Efficient Curriculum based Continual Learning with Informative Subset
Selection for Remote Sensing Scene Classification [27.456319725214474]
光リモートセンシング(RS)画像からランドカバー分類の領域におけるクラスインクリメンタルラーニング(CIL)の問題に取り組む。
本稿では,最近のリプレイメモリ方式の成功に触発された新しいCILフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-03T01:25:40Z) - AdaSelection: Accelerating Deep Learning Training through Data
Subsampling [27.46630703428186]
適応型サブサンプリング手法であるAdaSelectionを導入し,各ミニバッチ内の最も情報性の高いサブサンプルを同定する。
業界標準のベースラインと比較すると、AdaSelectionは一貫して優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-06-19T07:01:28Z) - Regularizing Second-Order Influences for Continual Learning [39.16131410356833]
継続的な学習は、それまでの知識を破滅的に忘れることなく、非定常的なデータストリームで学習することを目的としている。
一般的なリプレイベースのメソッドは、見たデータを保持する小さなバッファーでリハーサルすることで、この問題に対処する。
我々は、影響関数に基づいて構築されたフレームワーク内での逐次選択ステップの相互作用を識別する。
論文 参考訳(メタデータ) (2023-04-20T09:30:35Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。