論文の概要: Efficient Few-Shot Object Detection via Knowledge Inheritance
- arxiv url: http://arxiv.org/abs/2203.12224v1
- Date: Wed, 23 Mar 2022 06:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:49:16.403984
- Title: Efficient Few-Shot Object Detection via Knowledge Inheritance
- Title(参考訳): 知識継承による効率的なマイノリティショット物体検出
- Authors: Ze Yang, Chi Zhang, Ruibo Li and Guosheng Lin
- Abstract要約: Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
- 参考スコア(独自算出の注目度): 62.36414544915032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection (FSOD), which aims at learning a generic detector
that can adapt to unseen tasks with scarce training samples, has witnessed
consistent improvement recently. However, most existing methods ignore the
efficiency issues, e.g., high computational complexity and slow adaptation
speed. Notably, efficiency has become an increasingly important evaluation
metric for few-shot techniques due to an emerging trend toward embedded AI. To
this end, we present an efficient pretrain-transfer framework (PTF) baseline
with no computational increment, which achieves comparable results with
previous state-of-the-art (SOTA) methods. Upon this baseline, we devise an
initializer named knowledge inheritance (KI) to reliably initialize the novel
weights for the box classifier, which effectively facilitates the knowledge
transfer process and boosts the adaptation speed. Within the KI initializer, we
propose an adaptive length re-scaling (ALR) strategy to alleviate the vector
length inconsistency between the predicted novel weights and the pretrained
base weights. Finally, our approach not only achieves the SOTA results across
three public benchmarks, i.e., PASCAL VOC, COCO and LVIS, but also exhibits
high efficiency with 1.8-9.0x faster adaptation speed against the other methods
on COCO/LVIS benchmark during few-shot transfer. To our best knowledge, this is
the first work to consider the efficiency problem in FSOD. We hope to motivate
a trend toward powerful yet efficient few-shot technique development. The codes
are publicly available at https://github.com/Ze-Yang/Efficient-FSOD.
- Abstract(参考訳): Few-shot Object Detection (FSOD)は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器の学習を目的としている。
しかし、既存のほとんどの手法は、例えば高い計算複雑性と遅い適応速度といった効率の問題を無視している。
特に、組み込みAIへの新たなトレンドにより、効率性は、数ショットのテクニックにとってますます重要な評価指標になっている。
そこで本研究では,従来の最先端(SOTA)手法に匹敵する計算量の増大を伴わない,効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
このベースラインでは、知識継承(KI)という名前のイニシャライザを考案し、ボックス分類器の新しい重みを確実に初期化し、知識伝達プロセスを効果的に促進し、適応速度を向上する。
ki初期化器内では,予測された新しい重みと事前学習されたベース重みとのベクトル長不整合を緩和する適応長再スケーリング(alr)戦略を提案する。
最後に,提案手法は,PASCAL VOC,COCO,LVISの3つの公開ベンチマーク間でSOTA結果を達成するだけでなく,COCO/LVISベンチマークの他の手法に比べて1.8-9.0倍高速な適応速度を示す。
我々の知る限りでは、FSODの効率問題を考えるのはこれが初めてである。
私たちは、強力で効率的な数ショット技術開発へのトレンドを動機づけたいと考えています。
コードはhttps://github.com/Ze-Yang/Efficient-FSOD.comで公開されている。
関連論文リスト
- VeLoRA: Memory Efficient Training using Rank-1 Sub-Token Projections [35.133698935322634]
大規模言語モデル(LLM)は、最近、多くの言語処理タスクに対処するための強力なツールとして登場した。
勾配勾配勾配を用いた効率的なモデル収束に必要な重要な成分を同定し,特徴付ける。
この結果から, 微調整と事前学習の両方のための, 安価かつメモリ効率のよいアルゴリズムが得られた。
論文 参考訳(メタデータ) (2024-05-28T09:23:14Z) - Efficient Training for Visual Tracking with Deformable Transformer [0.0]
本稿では、エンドツーエンドのビジュアルオブジェクト追跡フレームワークであるDETRackを紹介する。
本フレームワークは、変形可能なトランスデコーダがターゲットヘッドとして機能する効率的なエンコーダ・デコーダ構造を用いる。
トレーニングには,新しい1対多ラベルの割り当てと補助的認知技術を導入する。
論文 参考訳(メタデータ) (2023-09-06T03:07:43Z) - Boosting Fast Adversarial Training with Learnable Adversarial
Initialization [79.90495058040537]
対人訓練(AT)は、対人訓練の例を活用することにより、モデルロバスト性を改善するのに有効であることが示されている。
トレーニング効率を向上させるため,高速AT法では1回だけ勾配を計算することにより高速勾配符号法(FGSM)が採用されている。
論文 参考訳(メタデータ) (2021-10-11T05:37:00Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - AdamP: Slowing Down the Slowdown for Momentum Optimizers on
Scale-invariant Weights [53.8489656709356]
正規化技術は現代の深層学習の恩恵である。
しかし、運動量を導入することで、スケール不変の重みに対する効果的なステップサイズが急速に小さくなることがしばしば見過ごされる。
本稿では,この2つの材料の組み合わせが,有効ステップサイズと準最適モデル性能の早期劣化につながることを検証した。
論文 参考訳(メタデータ) (2020-06-15T08:35:15Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。