論文の概要: Label-Free Synthetic Pretraining of Object Detectors
- arxiv url: http://arxiv.org/abs/2208.04268v1
- Date: Mon, 8 Aug 2022 16:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 13:37:01.020347
- Title: Label-Free Synthetic Pretraining of Object Detectors
- Title(参考訳): 物体検出器のラベルフリー合成前訓練
- Authors: Hei Law, Jia Deng
- Abstract要約: そこで本稿では,SOLID(Synthetic Optimization layout with Instance Detection)という新しい手法を提案する。
筆者らのSOLIDアプローチは,(1)シーンアレンジメントを最適化した非ラベルの3Dモデルを用いた合成画像の生成,(2)"インスタンス検出"タスクにおけるオブジェクト検出の事前学習,の2つの主要コンポーネントから構成される。
当社のアプローチでは,事前学習のためのセマンティックラベルは必要とせず,任意の3Dモデルを使用することが可能である。
- 参考スコア(独自算出の注目度): 67.17371526567325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new approach, Synthetic Optimized Layout with Instance Detection
(SOLID), to pretrain object detectors with synthetic images. Our "SOLID"
approach consists of two main components: (1) generating synthetic images using
a collection of unlabelled 3D models with optimized scene arrangement; (2)
pretraining an object detector on "instance detection" task - given a query
image depicting an object, detecting all instances of the exact same object in
a target image. Our approach does not need any semantic labels for pretraining
and allows the use of arbitrary, diverse 3D models. Experiments on COCO show
that with optimized data generation and a proper pretraining task, synthetic
data can be highly effective data for pretraining object detectors. In
particular, pretraining on rendered images achieves performance competitive
with pretraining on real images while using significantly less computing
resources. Code is available at https://github.com/princeton-vl/SOLID.
- Abstract(参考訳): 本稿では,合成画像を用いた物体検出を事前学習する新しい手法として,インスタンス検出(solid)を用いた合成最適化レイアウトを提案する。
私たちの"solid"アプローチは、2つの主要なコンポーネントで構成されています。1) 最適なシーン配置でラベルなしの3dモデルの集合を使って合成画像を生成すること、2) "instance detection"タスクでオブジェクト検出器を事前トレーニングすること。
当社のアプローチでは,事前トレーニングのための意味ラベルは不要で,任意の多様な3dモデルの使用が可能です。
COCOの実験では、最適化されたデータ生成と適切な事前学習タスクにより、合成データは事前学習対象検出器にとって非常に効果的なデータとなることが示されている。
特に、レンダリングされた画像の事前トレーニングは、計算リソースをはるかに少なくしながら、実際の画像の事前トレーニングと競合するパフォーマンスを達成する。
コードはhttps://github.com/princeton-vl/SOLIDで入手できる。
関連論文リスト
- Hardness-Aware Scene Synthesis for Semi-Supervised 3D Object Detection [59.33188668341604]
3次元物体検出は、自律運転知覚の基本的なタスクとして機能する。
ポイントクラウドデータのための高品質なアノテーションを得るためには、コストがかかる。
本稿では,適応型合成シーンを生成するために,ハードネス対応シーン合成(HASS)手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T17:59:23Z) - Disentangled Pre-training for Human-Object Interaction Detection [22.653500926559833]
本稿では,DP-HOI検出のための非交互事前学習法を提案する。
DP-HOIは、オブジェクト検出とアクション認識データセットを使用して、検出およびインタラクションデコーダ層を事前トレーニングする。
これは、様々な稀なカテゴリにおける既存のHOI検出モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-04-02T08:21:16Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Explore the Power of Synthetic Data on Few-shot Object Detection [27.26215175101865]
Few-shot Object Detection (FSOD) は、トレーニングのいくつかの例に限って、新しいカテゴリのオブジェクト検出器を拡張することを目的としている。
近年のテキスト・画像生成モデルでは,高品質な画像を生成する上で有望な結果が得られている。
この研究は、最先端のテキスト・ツー・イメージ・ジェネレータから生成された合成画像がFSODタスクにどのように貢献するかを幅広く研究している。
論文 参考訳(メタデータ) (2023-03-23T12:34:52Z) - Self-Supervised Object Detection via Generative Image Synthesis [106.65384648377349]
本稿では,自己教師対象検出のための制御可能なGANを用いたエンドツーエンド分析合成フレームワークを提案する。
オブジェクトの合成と検出を学習するために、ボックスアノテーションを使用せずに、実世界のイメージのコレクションを使用します。
我々の研究は、制御可能なGAN画像合成という新しいパラダイムを導入することで、自己教師対象検出の分野を前進させる。
論文 参考訳(メタデータ) (2021-10-19T11:04:05Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。