論文の概要: Context-Matched Collage Generation for Underwater Invertebrate Detection
- arxiv url: http://arxiv.org/abs/2211.08479v1
- Date: Tue, 15 Nov 2022 20:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:16:24.801548
- Title: Context-Matched Collage Generation for Underwater Invertebrate Detection
- Title(参考訳): 水中無脊椎動物検出のためのコンテキストマッチングコラージュ生成
- Authors: R. Austin McEver, Bowen Zhang, B.S. Manjunath
- Abstract要約: 明示的なコンテキストラベルを利用して、未使用のバックグラウンドサンプルと既存のアノテーション付きデータを組み合わせて、追加のトレーニングサンプルを合成するContext Matched Collagesを導入する。
生成したコラージュ画像を元のトレーニングセットと組み合わせることで、DUSIA上の3つの異なる物体検出器を用いて性能を向上させることができる。
- 参考スコア(独自算出の注目度): 12.255951530970249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quality and size of training sets often limit the performance of many
state of the art object detectors. However, in many scenarios, it can be
difficult to collect images for training, not to mention the costs associated
with collecting annotations suitable for training these object detectors. For
these reasons, on challenging video datasets such as the Dataset for Underwater
Substrate and Invertebrate Analysis (DUSIA), budgets may only allow for
collecting and providing partial annotations. To aid in the challenges
associated with training with limited and partial annotations, we introduce
Context Matched Collages, which leverage explicit context labels to combine
unused background examples with existing annotated data to synthesize
additional training samples that ultimately improve object detection
performance. By combining a set of our generated collage images with the
original training set, we see improved performance using three different object
detectors on DUSIA, ultimately achieving state of the art object detection
performance on the dataset.
- Abstract(参考訳): トレーニングセットの品質とサイズは、しばしばアートオブジェクト検出器の多くの状態のパフォーマンスを制限する。
しかし、多くのシナリオにおいて、これらのオブジェクト検出器のトレーニングに適したアノテーションの収集に関連するコストは言うまでもなく、トレーニングのための画像収集は困難である。
これらの理由から、DUSIA(Dataset for Underwater Substrate and Invertebrate Analysis)のような挑戦的なビデオデータセットでは、予算は部分的なアノテーションの収集と提供しかできない。
これは、明示的なコンテキストラベルを利用して、未使用のバックグラウンドサンプルと既存の注釈付きデータを組み合わせて、オブジェクト検出性能を最終的に向上する追加のトレーニングサンプルを合成するものだ。
生成したコラージュ画像と元のトレーニングセットを組み合わせることで、DUSIA上の3つの異なるオブジェクト検出器によるパフォーマンスが改善され、最終的にデータセット上でのアートオブジェクト検出性能が達成される。
関連論文リスト
- PEEKABOO: Hiding parts of an image for unsupervised object localization [7.161489957025654]
教師なしの方法でオブジェクトをローカライズすることは、重要な視覚情報がないために大きな課題となる。
教師なしオブジェクトローカライゼーションのための単段階学習フレームワークPEEKABOOを提案する。
キーとなるアイデアは、画像の一部を選択的に隠し、残りの画像情報を活用して、明示的な監督なしにオブジェクトの位置を推測することである。
論文 参考訳(メタデータ) (2024-07-24T20:35:20Z) - Efficiently Collecting Training Dataset for 2D Object Detection by Online Visual Feedback [5.015678820698308]
ディープラーニングに基づく視覚システムの訓練には、かなりの数の画像のマニュアルアノテーションが必要である。
本稿では,Webアプリケーションを用いたHuman-in-the-loopデータセット収集手法を提案する。
マルチビューオブジェクト画像データセットの収集を楽しい方法で促進し,作業負荷と性能を相殺するために,3種類のオンライン視覚フィードバック機能を提案する。
論文 参考訳(メタデータ) (2023-04-11T00:17:28Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection [18.04185751827619]
新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
論文 参考訳(メタデータ) (2021-03-30T05:34:49Z) - Improving filling level classification with adversarial training [90.01594595780928]
単一画像からカップや飲料グラスのコンテントのレベルを分類する問題について検討する。
汎用ソースデータセットで逆トレーニングを使用し、タスク固有のデータセットでトレーニングを洗練します。
ソース領域における逆学習による伝達学習は,テストセットの分類精度を常に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-08T08:32:56Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。