論文の概要: Rethinking Annotation for Object Detection: Is Annotating Small-size Instances Worth Its Cost?
- arxiv url: http://arxiv.org/abs/2412.05611v1
- Date: Sat, 07 Dec 2024 10:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:19.149180
- Title: Rethinking Annotation for Object Detection: Is Annotating Small-size Instances Worth Its Cost?
- Title(参考訳): オブジェクト検出のアノテーションを再考する: 小型インスタンスのアノテーションはコストが高いか?
- Authors: Yusuke Hosoya, Masanori Suganuma, Takayuki Okatani,
- Abstract要約: 本研究では,テスト時に入力画像をアップスケールする手法と,トレーニング時にイメージをダウンスケールする手法を評価する。
本手法では, 異なるスケールの入力画像に対して同じ検出器を2回適用する必要があるが, 蒸留により同一のベースライン検出器と同等に機能する単一パス検出器が得られることを示す。
- 参考スコア(独自算出の注目度): 19.54008511592332
- License:
- Abstract: Detecting objects occupying only small areas in an image is difficult, even for humans. Therefore, annotating small-size object instances is hard and thus costly. This study questions common sense by asking the following: is annotating small-size instances worth its cost? We restate it as the following verifiable question: can we detect small-size instances with a detector trained using training data free of small-size instances? We evaluate a method that upscales input images at test time and a method that downscales images at training time. The experiments conducted using the COCO dataset show the following. The first method, together with a remedy to narrow the domain gap between training and test inputs, achieves at least comparable performance to the baseline detector trained using complete training data. Although the method needs to apply the same detector twice to an input image with different scaling, we show that its distillation yields a single-path detector that performs equally well to the same baseline detector. These results point to the necessity of rethinking the annotation of training data for object detection.
- Abstract(参考訳): 画像内の小さな領域のみを占有する物体を検出することは、人間にとっても困難である。
したがって、小さなオブジェクトインスタンスに注釈をつけるのは難しく、そのためコストがかかる。
この研究は、次のような質問をして、常識に疑問を投げかける。
小型インスタンスを使用せずに、トレーニングデータを使用してトレーニングされた検出器を使って、小型インスタンスを検出できますか?
本研究では,テスト時に入力画像をアップスケールする手法と,トレーニング時にイメージをダウンスケールする手法を評価する。
COCOデータセットを用いて行った実験は以下のとおりである。
第1の方法は、トレーニングとテストインプットのドメインギャップを狭めるための治療法とともに、完全なトレーニングデータを用いてトレーニングされたベースライン検出器と少なくとも同等の性能を達成する。
本手法では, 異なるスケールの入力画像に対して同じ検出器を2回適用する必要があるが, 蒸留により同一のベースライン検出器と同等に機能する単一パス検出器が得られることを示す。
これらの結果は、オブジェクト検出のためのトレーニングデータのアノテーションを再考する必要があることを示している。
関連論文リスト
- ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - UnseenNet: Fast Training Detector for Any Unseen Concept [6.802401545890963]
「見知らぬクラス検出器」は、競合精度でボックスをバウンディングすることなく、可能な限り見つからないクラスに対して、非常に短時間で訓練することができる。
我々のモデル(UnseenNet)は、未確認クラスのImageNet分類データセットに基づいて訓練され、オブジェクト検出データセット(Open Images)上でテストされる。
論文 参考訳(メタデータ) (2022-03-16T17:17:10Z) - A Survey of Self-Supervised and Few-Shot Object Detection [19.647681501581225]
自己教師付き手法は、オブジェクト検出などの下流タスクにうまく転送されるラベルのないデータから表現を学習することを目的としている。
ほとんどショットされていないオブジェクト検出は、ほとんどデータを持たない新しい(見えない)オブジェクトクラスのモデルをトレーニングすることです。
本調査では, 少数ショット・自己監督型物体検出における最新のアプローチを概観し, 特徴付けする。
論文 参考訳(メタデータ) (2021-10-27T18:55:47Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - SM+: Refined Scale Match for Tiny Person Detection [11.544372490921097]
小型人物検出のための改良されたスケールマッチング法(SM+)を提案する。
SM+は画像レベルからインスタンスレベルへのスケールマッチを改善し、事前トレーニングとターゲットデータセットの類似性を効果的に促進する。
様々な検出器を用いた実験により、SM+はTinyPersonの性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2021-02-06T10:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。