論文の概要: A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection
- arxiv url: http://arxiv.org/abs/2102.08884v1
- Date: Wed, 17 Feb 2021 17:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:36:59.462801
- Title: A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection
- Title(参考訳): 長尺物体検出のためのオブジェクト中心画像の簡便かつ効果的利用
- Authors: Cheng Zhang, Tai-Yu Pan, Yandong Li, Hexiang Hu, Dong Xuan, Soravit
Changpinyo, Boqing Gong, Wei-Lun Chao
- Abstract要約: シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
- 参考スコア(独自算出の注目度): 56.82077636126353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object frequencies in daily scenes follow a long-tailed distribution. Many
objects do not appear frequently enough in scene-centric images (e.g.,
sightseeing, street views) for us to train accurate object detectors. In
contrast, these objects are captured at a higher frequency in object-centric
images, which are intended to picture the objects of interest. Motivated by
this phenomenon, we propose to take advantage of the object-centric images to
improve object detection in scene-centric images. We present a simple yet
surprisingly effective framework to do so. On the one hand, our approach turns
an object-centric image into a useful training example for object detection in
scene-centric images by mitigating the domain gap between the two image sources
in both the input and label space. On the other hand, our approach employs a
multi-stage procedure to train the object detector, such that the detector
learns the diverse object appearances from object-centric images while being
tied to the application domain of scene-centric images. On the LVIS dataset,
our approach can improve the object detection (and instance segmentation)
accuracy of rare objects by 50% (and 33%) relatively, without sacrificing the
performance of other classes.
- Abstract(参考訳): 毎日のシーンのオブジェクト周波数は、ロングテールの分布に従う。
多くのオブジェクトは、シーン中心の画像(例えば、観光、ストリートビュー)に頻繁に現れないため、正確な物体検出器を訓練できます。
対照的に、これらのオブジェクトは対象中心の画像のより高い周波数でキャプチャされ、興味のあるオブジェクトを画像化することを目的としている。
本研究では,この現象に動機づけられた物体中心画像を利用して,シーン中心画像の物体検出を改善することを提案する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
一方,提案手法では,入力空間とラベル空間の両方において2つの画像源間の領域ギャップを緩和し,シーン中心画像における物体検出のための有用なトレーニング例とする。
一方,本手法では,シーン中心画像のアプリケーション領域に縛り付けられながら,オブジェクト中心画像から多様なオブジェクトの外観を学習するように,オブジェクト検出器を訓練するための多段階的な手順を採用している。
LVISデータセットでは、他のクラスのパフォーマンスを犠牲にすることなく、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)精度を比較的50%(および33%)改善することができる。
関連論文リスト
- Improving Object Detection via Local-global Contrastive Learning [27.660633883387753]
本稿では,クロスドメインオブジェクト検出を対象とする画像から画像への変換手法を提案する。
ローカル・グローバル情報と対比することでオブジェクトを表現することを学ぶ。
これにより、ドメインシフトの下で、パフォーマンス検出(Performant detection)の取得という、未調査の課題の調査が可能になる。
論文 参考訳(メタデータ) (2024-10-07T14:18:32Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - LOCATE: Localize and Transfer Object Parts for Weakly Supervised
Affordance Grounding [43.157518990171674]
人間は観察を通して知識を得るのが得意です。
このスキルを得るための重要なステップは、オブジェクトのどの部分がそれぞれのアクションに余裕があるかを特定することです。
画像間のマッチング対象を識別できるLOCATEというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T21:47:49Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z) - Evaluating Salient Object Detection in Natural Images with Multiple
Objects having Multi-level Saliency [3.464871689508835]
正当性オブジェクト検出は、ラベルが正当性オブジェクトクラスと背景を持つバイナリ基底真理を用いて評価される。
我々のデータセットは、SalMoN(複数オブジェクトの自然画像の可用性)と呼ばれ、複数のオブジェクトを含む588の画像を持つ。
論文 参考訳(メタデータ) (2020-03-19T00:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。