論文の概要: UnseenNet: Fast Training Detector for Any Unseen Concept
- arxiv url: http://arxiv.org/abs/2203.08759v1
- Date: Wed, 16 Mar 2022 17:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 16:45:08.096457
- Title: UnseenNet: Fast Training Detector for Any Unseen Concept
- Title(参考訳): UnseenNet: 目に見えないコンセプトの高速トレーニングディテクター
- Authors: Asra Aslam and Edward Curry
- Abstract要約: 「見知らぬクラス検出器」は、競合精度でボックスをバウンディングすることなく、可能な限り見つからないクラスに対して、非常に短時間で訓練することができる。
我々のモデル(UnseenNet)は、未確認クラスのImageNet分類データセットに基づいて訓練され、オブジェクト検出データセット(Open Images)上でテストされる。
- 参考スコア(独自算出の注目度): 6.802401545890963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training of object detection models using less data is currently the focus of
existing N-shot learning models in computer vision. Such methods use
object-level labels and takes hours to train on unseen classes. There are many
cases where we have large amount of image-level labels available for training
but cannot be utilized by few shot object detection models for training. There
is a need for a machine learning framework that can be used for training any
unseen class and can become useful in real-time situations. In this paper, we
proposed an "Unseen Class Detector" that can be trained within a very short
time for any possible unseen class without bounding boxes with competitive
accuracy. We build our approach on "Strong" and "Weak" baseline detectors,
which we trained on existing object detection and image classification
datasets, respectively. Unseen concepts are fine-tuned on the strong baseline
detector using only image-level labels and further adapted by transferring the
classifier-detector knowledge between baselines. We use semantic as well as
visual similarities to identify the source class (i.e. Sheep) for the
fine-tuning and adaptation of unseen class (i.e. Goat). Our model (UnseenNet)
is trained on the ImageNet classification dataset for unseen classes and tested
on an object detection dataset (OpenImages). UnseenNet improves the mean
average precision (mAP) by 10% to 30% over existing baselines (semi-supervised
and few-shot) of object detection on different unseen class splits. Moreover,
training time of our model is <10 min for each unseen class. Qualitative
results demonstrate that UnseenNet is suitable not only for few classes of
Pascal VOC but for unseen classes of any dataset or web. Code is available at
https://github.com/Asra-Aslam/UnseenNet.
- Abstract(参考訳): 少ないデータを用いた物体検出モデルのトレーニングは、コンピュータビジョンにおける既存のNショット学習モデルの焦点となっている。
このようなメソッドはオブジェクトレベルのラベルを使用し、未使用のクラスをトレーニングするのに数時間を要する。
トレーニング用に利用可能な画像レベルのラベルが多数存在するが、トレーニング用にはほとんどショットオブジェクト検出モデルによって利用できないケースも多い。
目に見えないクラスをトレーニングするのに使用できる機械学習フレームワークが必要であり、リアルタイムの状況で有用になる。
本稿では,ボックスを競合精度で拘束することなく,非常に短時間で未確認のクラスを学習できる「未確認クラス検出器」を提案する。
我々は,既存のオブジェクト検出と画像分類データセットをそれぞれトレーニングした,"Strong" と "Weak" ベースライン検出器のアプローチを構築した。
画像レベルのラベルのみを使用して、強いベースライン検出器上で未確認の概念を微調整し、さらにベースライン間で分類器と検出器の知識を伝達することによって適応する。
我々はセマンティクスと視覚の類似性を用いて,未発見のクラス (ヤギ) の微調整と適応のためのソースクラス (すなわちヒツジ) を識別する。
我々のモデル(unseennet)はimagenet分類データセットでトレーニングされ、オブジェクト検出データセット(openimages)上でテストされます。
UnseenNetは、異なる未確認クラス分割におけるオブジェクト検出の既存のベースライン(半教師付きおよび少数ショット)よりも平均平均精度(mAP)を10%から30%向上させる。
さらに,モデルのトレーニング時間は,各クラスで10分以内である。
質的な結果は、UnseenNetがPascal VOCの少数のクラスだけでなく、どんなデータセットやWebの目に見えないクラスにも適していることを示している。
コードはhttps://github.com/Asra-Aslam/UnseenNetで入手できる。
関連論文リスト
- A High-Resolution Dataset for Instance Detection with Multi-View
Instance Capture [15.298790238028356]
インスタンス検出(InsDet)は、ロボット工学とコンピュータビジョンにおける長期的な問題である。
現在のInsDetは、今日の標準ではスケールが小さすぎる。
InsDetの新しいデータセットとプロトコルを導入します。
論文 参考訳(メタデータ) (2023-10-30T03:58:41Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Single Image Object Counting and Localizing using Active-Learning [4.56877715768796]
単一画像シナリオにおける反復オブジェクトのカウントとローカライズのための新しい手法を提案する。
本手法は,少数のアクティブ・ラーニング・イテレーションにおいて,入力画像から注意深く収集したラベルの小さなセットに対してCNNを訓練する。
既存のユーザ支援カウント法と比較すると,ユーザマウスのクリック数,ランニングタイムの計測と位置決めの精度の観点から,能動的学習が最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2021-11-16T11:29:21Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Learning Transferable Visual Models From Natural Language Supervision [13.866297967166089]
画像に関する生のテキストから直接学ぶことは、有望な代替手段だ。
本研究では,どのキャプションがどの画像で動くかを予測する単純な事前学習タスクが,効率よく,スケーラブルな学習方法であることを実証する。
SOTA画像表現は、インターネットから収集された4億(画像、テキスト)のデータセットから学習される。
論文 参考訳(メタデータ) (2021-02-26T19:04:58Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z) - StarNet: towards Weakly Supervised Few-Shot Object Detection [87.80771067891418]
本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
論文 参考訳(メタデータ) (2020-03-15T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。