論文の概要: Proposal Distribution Calibration for Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2212.07618v1
- Date: Thu, 15 Dec 2022 05:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 17:02:11.711392
- Title: Proposal Distribution Calibration for Few-Shot Object Detection
- Title(参考訳): 少数ショット物体検出のための提案分布校正
- Authors: Bohao Li, Chang Liu, Mengnan Shi, Xiaozhong Chen, Xiangyang Ji,
Qixiang Ye
- Abstract要約: few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
- 参考スコア(独自算出の注目度): 65.19808035019031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting object detectors learned with sufficient supervision to novel
classes under low data regimes is charming yet challenging. In few-shot object
detection (FSOD), the two-step training paradigm is widely adopted to mitigate
the severe sample imbalance, i.e., holistic pre-training on base classes, then
partial fine-tuning in a balanced setting with all classes. Since unlabeled
instances are suppressed as backgrounds in the base training phase, the learned
RPN is prone to produce biased proposals for novel instances, resulting in
dramatic performance degradation. Unfortunately, the extreme data scarcity
aggravates the proposal distribution bias, hindering the RoI head from evolving
toward novel classes. In this paper, we introduce a simple yet effective
proposal distribution calibration (PDC) approach to neatly enhance the
localization and classification abilities of the RoI head by recycling its
localization ability endowed in base training and enriching high-quality
positive samples for semantic fine-tuning. Specifically, we sample proposals
based on the base proposal statistics to calibrate the distribution bias and
impose additional localization and classification losses upon the sampled
proposals for fast expanding the base detector to novel classes. Experiments on
the commonly used Pascal VOC and MS COCO datasets with explicit
state-of-the-art performances justify the efficacy of our PDC for FSOD. Code is
available at github.com/Bohao-Lee/PDC.
- Abstract(参考訳): 低いデータ体制下で学習したオブジェクト検出器を新しいクラスに十分な監督で適応させることは、非常に難しい。
マイトショットオブジェクト検出(英語版)(fsod)では、2段階のトレーニングパラダイムが広く採用されており、重度なサンプル不均衡、すなわちベースクラスの全体的事前トレーニングを緩和し、すべてのクラスでバランスのとれた設定で部分的微調整を行う。
未ラベルのインスタンスは、ベーストレーニングフェーズのバックグラウンドとして抑制されるため、学習されたRPNは、新規インスタンスに対するバイアスのある提案を生成する傾向にあり、劇的なパフォーマンス劣化をもたらす。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を向上させるために,ベーストレーニングにおけるローカライゼーション能力の再利用と,セマンティック微調整のための高品質な正サンプルの充実により,単純かつ効果的な提案分布校正手法を提案する。
具体的には, 分布バイアスを校正するためのベース提案統計に基づいて提案手法をサンプルし, サンプル提案に付加的な局所化と分類損失を課し, ベース検出器を新しいクラスに高速に拡張する。
一般に使われているパスカルVOCとMS COCOデータセットに対する実験は、当社のFSODに対するPDCの有効性を正当化する。
コードはgithub.com/Bohao-Lee/PDCで入手できる。
関連論文リスト
- GRSDet: Learning to Generate Local Reverse Samples for Few-shot Object
Detection [15.998148904793426]
Few-shot Object Detection (FSOD) は、いくつかの新しいクラストレーニングデータを用いてのみオブジェクト検出を実現することを目的としている。
既存の手法の多くは、新しいクラス分布を構築するために移行学習戦略を採用するのが一般的である。
本稿では,新しいクラス分布の中心位置と境界範囲を適応的に調整するために,プロトタイプ参照フレームに局所逆サンプル(LRSamples)を生成することを提案する。
論文 参考訳(メタデータ) (2023-12-27T13:36:29Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Open-Sampling: Exploring Out-of-Distribution data for Re-balancing
Long-tailed datasets [24.551465814633325]
深層ニューラルネットワークは通常、トレーニングデータセットが極端なクラス不均衡に苦しむ場合、パフォーマンスが良くない。
近年の研究では、半教師付き方式でアウト・オブ・ディストリビューションデータによる直接トレーニングが一般化性能を損なうことが報告されている。
そこで我々は,オープンセットノイズラベルを用いて学習データセットのクラス前のバランスを再調整する,オープンサンプリングと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:29:52Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。