論文の概要: FDCNet: Feature Drift Compensation Network for Class-Incremental Weakly
Supervised Object Localization
- arxiv url: http://arxiv.org/abs/2309.09122v1
- Date: Sun, 17 Sep 2023 01:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 17:23:18.640540
- Title: FDCNet: Feature Drift Compensation Network for Class-Incremental Weakly
Supervised Object Localization
- Title(参考訳): FDCNet: クラスインクリメンタル弱修正オブジェクトローカライゼーションのための機能ドリフト補償ネットワーク
- Authors: Sejin Park and Taehyung Lee and Yeejin Lee and Byeongkeun Kang
- Abstract要約: 本研究は、クラス増分弱教師付きオブジェクトローカライゼーション(CI-WSOL)の課題に対処する。
ゴールは、画像レベルのアノテーションのみを使用して、新しいクラスのオブジェクトローカライゼーションを漸進的に学習し、以前に学習したクラスをローカライズする能力を維持することである。
まず、クラスインクリメンタル分類器の戦略を破滅的な忘れ方に適用し、CI-WSOLの強力なベースライン法を提案する。
そこで我々は,特徴ドリフトがクラススコアやローカライゼーションマップに与える影響を補償する特徴ドリフト補償ネットワークを提案する。
- 参考スコア(独自算出の注目度): 10.08410402383604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the task of class-incremental weakly supervised object
localization (CI-WSOL). The goal is to incrementally learn object localization
for novel classes using only image-level annotations while retaining the
ability to localize previously learned classes. This task is important because
annotating bounding boxes for every new incoming data is expensive, although
object localization is crucial in various applications. To the best of our
knowledge, we are the first to address this task. Thus, we first present a
strong baseline method for CI-WSOL by adapting the strategies of
class-incremental classifiers to mitigate catastrophic forgetting. These
strategies include applying knowledge distillation, maintaining a small data
set from previous tasks, and using cosine normalization. We then propose the
feature drift compensation network to compensate for the effects of feature
drifts on class scores and localization maps. Since updating network parameters
to learn new tasks causes feature drifts, compensating for the final outputs is
necessary. Finally, we evaluate our proposed method by conducting experiments
on two publicly available datasets (ImageNet-100 and CUB-200). The experimental
results demonstrate that the proposed method outperforms other baseline
methods.
- Abstract(参考訳): この研究は、クラス増分弱教師付きオブジェクトローカライゼーション(CI-WSOL)の課題に対処する。
目標は、画像レベルのアノテーションのみを使用して、新しいクラスのオブジェクトローカライズを段階的に学習し、以前の学習したクラスをローカライズする能力を維持することだ。
オブジェクトのローカライゼーションは様々なアプリケーションにおいて重要であるが、新しい受信データごとにバウンダリングボックスをアノテートすることは高価である。
私たちの知る限りでは、私たちはこの課題に最初に取り組みます。
そこで,本研究では,クラスインクリメンタルな分類器の戦略を適用して,ci-wsolの強力なベースライン手法を提案する。
これらの戦略には、知識蒸留の適用、以前のタスクからの小さなデータセットの維持、コサイン正規化の使用が含まれる。
そこで我々は,特徴ドリフトがクラススコアやローカライゼーションマップに与える影響を補償する特徴ドリフト補償ネットワークを提案する。
ネットワークパラメータを更新して新しいタスクを学習し、機能ドリフトを引き起こすため、最終的な出力を補償する必要がある。
最後に,2つの公開データセット(ImageNet-100とCUB-200)で実験を行い,提案手法の評価を行った。
実験の結果,提案手法は他のベースライン法よりも優れていた。
関連論文リスト
- Improving Weakly-Supervised Object Localization Using Adversarial Erasing and Pseudo Label [7.400926717561454]
本稿では,弱教師付きオブジェクトローカライゼーションの枠組みについて検討する。
それは、画像と画像レベルのクラスラベルのみを使用して、オブジェクトクラスとその位置を予測できるニューラルネットワークをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2024-04-15T06:02:09Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - Density Map Distillation for Incremental Object Counting [37.982124268097]
インクリメンタルなオブジェクトカウントに対するナイーブなアプローチは、破滅的な忘れ込みに悩まされ、以前のタスクに対する劇的なパフォーマンス低下に悩まされる。
密度マップ蒸留法 (DMD) と呼ばれる, 先例のない関数正規化手法を提案する。
トレーニング中,各タスクに新しいカウンタヘッドを導入し,従来のタスクを忘れないように蒸留損失を導入する。
論文 参考訳(メタデータ) (2023-04-11T14:46:21Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - On the Exploration of Incremental Learning for Fine-grained Image
Retrieval [45.48333682748607]
我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
論文 参考訳(メタデータ) (2020-10-15T21:07:44Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z) - Pairwise Similarity Knowledge Transfer for Weakly Supervised Object
Localization [53.99850033746663]
弱教師付き画像ラベルを持つ対象クラスにおける局所化モデル学習の問題点について検討する。
本研究では,対象関数のみの学習は知識伝達の弱い形態であると主張する。
COCOおよびILSVRC 2013検出データセットの実験では、ペアワイズ類似度関数を含むことにより、ローカライズモデルの性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-03-18T17:53:33Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。