論文の概要: S-Extension Patch: A simple and efficient way to extend an object
detection model
- arxiv url: http://arxiv.org/abs/2110.02670v1
- Date: Wed, 6 Oct 2021 11:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:31:12.529938
- Title: S-Extension Patch: A simple and efficient way to extend an object
detection model
- Title(参考訳): S-Extension Patch: オブジェクト検出モデルを拡張するシンプルで効率的な方法
- Authors: Dishant Parikh
- Abstract要約: 推論の速度と精度を維持しながら、データセットに関する知識を活用してクラスを素早く追加する方法を示します。
このメソッドは既存のオブジェクト検出モデルのクラスを、既存のメソッドと比較して10分の1の時間で拡張することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While building convolutional network-based systems, the toll it takes to
train the network is something that cannot be ignored. In cases where we need
to append additional capabilities to the existing model, the attention
immediately goes towards retraining techniques. In this paper, I show how to
leverage knowledge about the dataset to append the class faster while
maintaining the speed of inference as well as the accuracies; while reducing
the amount of time and data required. The method can extend a class in the
existing object detection model in 1/10th of the time compared to the other
existing methods. S-Extension patch not only offers faster training but also
speed and ease of adaptation, as it can be appended to any existing system,
given it fulfills the similarity threshold condition.
- Abstract(参考訳): 畳み込み型ネットワークベースのシステムを構築する一方で、ネットワークのトレーニングに要する料金は無視できないものです。
既存のモデルに追加機能を追加する必要がある場合、すぐに再トレーニング技術に注意が向けられます。
本稿では,データセットに関する知識を活用し,クラスを高速に付加し,推論の速度と精度を維持しながら,必要な時間とデータの量を削減する方法を示す。
既存のオブジェクト検出モデルのクラスを他の既存のメソッドと比較して1/10の時間で拡張することができる。
S-Extension パッチはより高速なトレーニングを提供するだけでなく、類似性のしきい値を満たすため、既存のシステムに付加できるため、スピードと適応の容易さも提供する。
関連論文リスト
- Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - Tip-Adapter: Training-free Adaption of CLIP for Few-shot Classification [58.06983806317233]
対照的に、CLIPとして知られる事前学習は、大規模な画像テキストペアを使用して視覚表現を学ぶための新しいパラダイムを提供する。
CLIPの適応性を高めるため、既存のメソッドは学習可能なモジュールを微調整する。
そこで本研究では,Tip-Adapterと呼ばれる少数ショット分類を行うためのCLIPのトレーニングフリー適応手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T19:12:11Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Representation Memorization for Fast Learning New Knowledge without
Forgetting [36.55736909586313]
新しい知識を素早く学習する能力は、人間レベルの知性への大きな一歩だ。
新しいクラスやデータ配布を迅速かつ漸進的に学ぶ必要があるシナリオを考えます。
本稿では,2つの課題に対処するため,メモリベースのヘビアン適応を提案する。
論文 参考訳(メタデータ) (2021-08-28T07:54:53Z) - FASA: Feature Augmentation and Sampling Adaptation for Long-Tailed
Instance Segmentation [91.129039760095]
ロングテールインスタンスセグメンテーションの最近の手法は、トレーニングデータが少ないレアオブジェクトクラスで未だに苦労している。
本稿では,FASA(Feature Augmentation and Smpling Adaptation)を提案する。
FASAは、標準またはロングテールのセグメンテーションフレームワークに簡単に接続できる、高速で汎用的な方法です。
論文 参考訳(メタデータ) (2021-02-25T14:07:23Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - XtarNet: Learning to Extract Task-Adaptive Representation for
Incremental Few-Shot Learning [24.144499302568565]
本稿では,タスク適応型表現(TAR)を抽出し,段階的な数ショット学習を容易にするXtarNetを提案する。
TARには、新規カテゴリとベースカテゴリの両方を分類するための効果的な情報が含まれている。
XtarNetは、最先端のインクリメンタルな数ショット学習パフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-19T04:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。