論文の概要: Stability Plasticity Decoupled Fine-tuning For Few-shot end-to-end
Object Detection
- arxiv url: http://arxiv.org/abs/2401.11140v1
- Date: Sat, 20 Jan 2024 06:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:40:34.256378
- Title: Stability Plasticity Decoupled Fine-tuning For Few-shot end-to-end
Object Detection
- Title(参考訳): 有限ショット終端物体検出のための安定塑性デカップリング微細調整
- Authors: Yuantao Yin, Ping Yin
- Abstract要約: ファインチューニングは効果的で実践的なアプローチであることが示されている。
そこで本研究では,PCF(Addtional Plasticity Classifier fine-tuning)段階を導入することで,新しい3段階ファインチューニング手法を提案する。
我々は、最終微調整段階におけるモデルの一般化を促進するために、マルチソースアンサンブル(ME)技術をさらに設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection(FSOD) aims to design methods to adapt object
detectors efficiently with only few annotated samples. Fine-tuning has been
shown to be an effective and practical approach. However, previous works often
take the classical base-novel two stage fine-tuning procedure but ignore the
implicit stability-plasticity contradiction among different modules.
Specifically, the random re-initialized classifiers need more plasticity to
adapt to novel samples. The other modules inheriting pre-trained weights demand
more stability to reserve their class-agnostic knowledge. Regular fine-tuning
which couples the optimization of these two parts hurts the model
generalization in FSOD scenarios. In this paper, we find that this problem is
prominent in the end-to-end object detector Sparse R-CNN for its
multi-classifier cascaded architecture. We propose to mitigate this
contradiction by a new three-stage fine-tuning procedure by introducing an
addtional plasticity classifier fine-tuning(PCF) stage. We further design the
multi-source ensemble(ME) technique to enhance the generalization of the model
in the final fine-tuning stage. Extensive experiments verify that our method is
effective in regularizing Sparse R-CNN, outperforming previous methods in the
FSOD benchmark.
- Abstract(参考訳): Few-shot Object Detection (FSOD) は、わずかな注記サンプルでオブジェクト検出器を効率的に適応する方法を設計することを目的としている。
微調整は効果的で実用的なアプローチであることが示されている。
しかし、以前の研究はしばしば古典的な2段階の微調整手順を取るが、異なる加群間の暗黙的な安定性と塑性の矛盾を無視する。
具体的には、ランダムな再初期化分類器は、新しいサンプルに適応するためにより可塑性を必要とする。
事前訓練された重みを継承する他のモジュールは、クラスに依存しない知識を保留するためにより安定性を必要とする。
これら2つの部分の最適化を組み合わせた通常の微調整は、FSODシナリオにおけるモデルの一般化を損なう。
本稿では,マルチクラス化アーキテクチャにおける終端オブジェクト検出器Sparse R-CNNにおいて,この問題が顕著であることを示す。
そこで本研究では,pcf(addtional plasticity classifier fine-tuning)段を導入することで,この矛盾を緩和する手法を提案する。
さらに,最終的な微調整段階におけるモデルの一般化を促進するために,マルチソースアンサンブル(me)手法も設計する。
広範な実験により,本手法がsparse r-cnnの正則化に有効であることを確認した。
関連論文リスト
- SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - DPPA: Pruning Method for Large Language Model to Model Merging [39.13317231533299]
本稿では、複雑な微調整モデルを統合するという課題に対処するため、DPPA(Dynamic Pruning Partition Amplification)と呼ばれる2段階の手法を提案する。
提案手法は,ドメイン固有のパラメータの20%しか保持せず,他の手法に匹敵する性能を提供する。
提案手法では, プレニング後の性能が優れており, モデルマージにおける性能が20%近く向上した。
論文 参考訳(メタデータ) (2024-03-05T09:12:49Z) - Towards Few-Annotation Learning for Object Detection: Are
Transformer-based Models More Efficient ? [11.416621957617334]
本稿では,現在最先端のオブジェクト検出器であるDeformable DETRに適した半教師付き手法を提案する。
本手法はCOCOとPascal VOCの半教師付きオブジェクト検出ベンチマークで評価し,特にアノテーションが少ない場合,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-30T18:51:25Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Meta-tuning Loss Functions and Data Augmentation for Few-shot Object
Detection [7.262048441360132]
少ないショットのオブジェクト検出は、少数ショットの学習とオブジェクト検出という領域において、新たなトピックである。
本稿では,数発検出を促進できる帰納的バイアスの学習を可能にする訓練手法を提案する。
提案手法は,高パラメトリックかつ複雑な数ショットメタモデルとは対照的に,解釈可能な損失関数を生成する。
論文 参考訳(メタデータ) (2023-04-24T15:14:16Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。