論文の概要: Evaluating Context for Deep Object Detectors
- arxiv url: http://arxiv.org/abs/2205.02887v1
- Date: Thu, 5 May 2022 18:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 01:07:20.098241
- Title: Evaluating Context for Deep Object Detectors
- Title(参考訳): 深部物体検出器のコンテキスト評価
- Authors: Osman Semih Kayhan and Jan C. van Gemert
- Abstract要約: 我々はオブジェクト検出器を文脈的使用の観点から3つのカテゴリに分類する。
さまざまなコンテキストに対して完全に制御されたデータセットを作成します。
単段および二段の物体検出器は、その大きな受容場によってコンテキストを利用でき、かつ使用することができることを実証する。
- 参考スコア(独自算出の注目度): 18.932504899552494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Which object detector is suitable for your context sensitive task? Deep
object detectors exploit scene context for recognition differently. In this
paper, we group object detectors into 3 categories in terms of context use: no
context by cropping the input (RCNN), partial context by cropping the
featuremap (two-stage methods) and full context without any cropping
(single-stage methods). We systematically evaluate the effect of context for
each deep detector category. We create a fully controlled dataset for varying
context and investigate the context for deep detectors. We also evaluate
gradually removing the background context and the foreground object on MS COCO.
We demonstrate that single-stage and two-stage object detectors can and will
use the context by virtue of their large receptive field. Thus, choosing the
best object detector may depend on the application context.
- Abstract(参考訳): どのオブジェクト検出器がコンテキストに敏感なタスクに適しているか?
ディープオブジェクト検出器はシーンコンテキストを異なる認識に活用する。
本稿では,対象検出器を文脈利用の3つのカテゴリに分類する: 入力(RCNN)をトリミングするコンテキストなし,特徴写像(2段階法)をトリミングする部分的コンテキストなし,全文脈をトリミングしない(1段階法)。
各深部検出器カテゴリにおけるコンテキストの影響を体系的に評価する。
我々は、状況に応じて完全に制御されたデータセットを作成し、深層検出器のコンテキストを調査する。
また,MS COCOにおける背景コンテキストと前景オブジェクトの段階的除去についても検討した。
単段および二段の物体検出器は、その大きな受容場により、コンテキストを使うことができる。
したがって、最高のオブジェクト検出器を選択することは、アプリケーションコンテキストに依存するかもしれない。
関連論文リスト
- Improving Object Detection via Local-global Contrastive Learning [27.660633883387753]
本稿では,クロスドメインオブジェクト検出を対象とする画像から画像への変換手法を提案する。
ローカル・グローバル情報と対比することでオブジェクトを表現することを学ぶ。
これにより、ドメインシフトの下で、パフォーマンス検出(Performant detection)の取得という、未調査の課題の調査が可能になる。
論文 参考訳(メタデータ) (2024-10-07T14:18:32Z) - Context Disentangling and Prototype Inheriting for Robust Visual
Grounding [56.63007386345772]
ビジュアルグラウンドディング(VG)は、与えられた言語クエリに基づいて、画像内の特定のターゲットを特定することを目的としている。
本稿では,両シーンを両シーンで処理する堅牢な視覚的グラウンド化のために,コンテキストの切り離しとプロトタイプを継承する新しいフレームワークを提案する。
本手法は両シナリオにおいて最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2023-12-19T09:03:53Z) - Detecting out-of-context objects using contextual cues [29.92843037720968]
画像中の文脈外(OOC)オブジェクトを検出するためのグラフコンテキスト推論ネットワーク(GCRN)を提案する。
GCRNは2つの別々のグラフで構成され、画像の文脈的手がかりに基づいてオブジェクトラベルを予測する。
GCRNはコンテキストキューを明示的にキャプチャして、コンテキスト内オブジェクトの検出を改善し、コンテキスト関係に違反するオブジェクトを識別する。
論文 参考訳(メタデータ) (2022-02-11T23:15:01Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Self-supervised object detection from audio-visual correspondence [101.46794879729453]
我々は、監視なしで物体検出器を学習する問題に取り組む。
画像レベルのクラスラベルは想定せず、代わりにオーディオビジュアルデータから監視信号を抽出します。
本研究では,航空機やネコなどの機器以外のジェネリック物体の検出を学習できることを示した。
論文 参考訳(メタデータ) (2021-04-13T17:59:03Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Cross-Supervised Object Detection [42.783400918552765]
完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-26T15:33:48Z) - Robust Object Detection under Occlusion with Context-Aware
CompositionalNets [21.303976151518125]
構成畳み込みニューラルネットワーク(CompositionalNets)は、隠蔽対象の分類において堅牢であることが示されている。
そこで我々は,コンポジションネットの2つの制限を克服し,部分的に隠蔽されたオブジェクトを検出することを提案する。
論文 参考訳(メタデータ) (2020-05-24T02:57:34Z) - MLCVNet: Multi-Level Context VoteNet for 3D Object Detection [51.45832752942529]
我々は,最先端のVoteNet上に構築された3次元オブジェクトを相関的に認識するためのマルチレベルコンテキストVoteNet(MLCVNet)を提案する。
異なるレベルのコンテキスト情報をエンコードするために,VoteNetの投票・分類段階に3つのコンテキストモジュールを導入する。
本手法は,3次元物体検出データセットの精度向上に有効な手法である。
論文 参考訳(メタデータ) (2020-04-12T19:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。