論文の概要: Simple Copy-Paste is a Strong Data Augmentation Method for Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2012.07177v1
- Date: Sun, 13 Dec 2020 22:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 13:53:32.860369
- Title: Simple Copy-Paste is a Strong Data Augmentation Method for Instance
Segmentation
- Title(参考訳): 単純なコピーペーストはインスタンス分割のための強力なデータ拡張手法である
- Authors: Golnaz Ghiasi, Yin Cui, Aravind Srinivas, Rui Qian, Tsung-Yi Lin, Ekin
D. Cubuk, Quoc V. Le, Barret Zoph
- Abstract要約: 例えば、画像にランダムにオブジェクトを貼り付けるセグメンテーションのコピーペースト拡張([13, 12])を研究した。
オブジェクトをランダムに貼り付ける単純なメカニズムは十分十分であり、強いベースラインの上にしっかりとした利得を与えることができる。
我々のベースラインモデルは、まれなカテゴリで+3.6マスクapでlvis 2020チャレンジ入賞を上回っている。
- 参考スコア(独自算出の注目度): 94.4931516162023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building instance segmentation models that are data-efficient and can handle
rare object categories is an important challenge in computer vision. Leveraging
data augmentations is a promising direction towards addressing this challenge.
Here, we perform a systematic study of the Copy-Paste augmentation ([13, 12])
for instance segmentation where we randomly paste objects onto an image. Prior
studies on Copy-Paste relied on modeling the surrounding visual context for
pasting the objects. However, we find that the simple mechanism of pasting
objects randomly is good enough and can provide solid gains on top of strong
baselines. Furthermore, we show Copy-Paste is additive with semi-supervised
methods that leverage extra data through pseudo labeling (e.g. self-training).
On COCO instance segmentation, we achieve 49.1 mask AP and 57.3 box AP, an
improvement of +0.6 mask AP and +1.5 box AP over the previous state-of-the-art.
We further demonstrate that Copy-Paste can lead to significant improvements on
the LVIS benchmark. Our baseline model outperforms the LVIS 2020 Challenge
winning entry by +3.6 mask AP on rare categories.
- Abstract(参考訳): データ効率が高く、まれなオブジェクトカテゴリを処理可能なインスタンスセグメンテーションモデルの構築は、コンピュータビジョンの重要な課題である。
データ拡張の活用はこの課題に対処するための有望な方向である。
ここでは,物体をランダムに画像に貼り付ける場合のCopy-Paste拡張([13, 12])の系統的研究を行う。
Copy-Pasteの以前の研究は、周囲の視覚的コンテキストをモデル化してオブジェクトを貼り付けていた。
しかし, 物体をランダムに貼り付ける単純な機構は十分良く, 強いベースラインの上にしっかりとした利得を与えることができる。
さらに,擬似ラベリングによる余分なデータを活用する半教師付き手法(例)でコピーペーストを付加することを示す。
自己訓練)。
COCOのインスタンスセグメンテーションでは、49.1マスクAPと57.3ボックスAP、+0.6マスクAPと+1.5ボックスAPの改善を実現している。
さらに、コピーペーストがlvisベンチマークの大幅な改善につながることを実証する。
我々のベースラインモデルは、まれなカテゴリで+3.6マスクapでlvis 2020チャレンジ入賞を上回っている。
関連論文リスト
- Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Instance Segmentation under Occlusions via Location-aware Copy-Paste
Data Augmentation [8.335108002480068]
MMSports 2023 DeepSportRadarは、バスケットボールのコンテキスト内での人間の対象のセグメンテーションに焦点を当てたデータセットを導入した。
この課題は、堅牢なデータ拡張技術と賢明なディープラーニングアーキテクチャの適用を必要とする。
我々の研究(コンペで1位)は、まず、より広い分布でより多くのトレーニングサンプルを生成することのできる、新しいデータ拡張技術を提案する。
論文 参考訳(メタデータ) (2023-10-27T07:44:25Z) - X-Paste: Revisiting Scalable Copy-Paste for Instance Segmentation using
CLIP and StableDiffusion [137.84635386962395]
Copy-Pasteは、インスタンスセグメンテーションのためのシンプルで効果的なデータ拡張戦略である。
新たに登場したゼロショット認識モデルのパワーで、Copy-Pasteを大規模に再考する。
X-Pasteは、Swin-Lをバックボーンとして、強力なベースラインであるCenterNet2よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-07T18:59:59Z) - BigDetection: A Large-scale Benchmark for Improved Object Detector
Pre-training [44.32782190757813]
我々はBigDetectionと呼ばれる新しい大規模ベンチマークを構築した。
私たちのデータセットには600のオブジェクトカテゴリがあり、3.4M以上のトレーニングイメージと36Mのバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2022-03-24T17:57:29Z) - Instance Segmentation Challenge Track Technical Report, VIPriors
Workshop at ICCV 2021: Task-Specific Copy-Paste Data Augmentation Method for
Instance Segmentation [0.0]
Copy-Pasteは、インスタンスセグメンテーションのための非常に効果的なデータ拡張であることが証明されている。
我々はRandAugmentやGridMaskといった追加のデータ拡張手法を適用した。
トレーニングデータに検証セットを追加することで、テストセットで0.477 AP@0.50:0.95に達した。
論文 参考訳(メタデータ) (2021-10-01T15:03:53Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - EOLO: Embedded Object Segmentation only Look Once [0.0]
3つの独立したブランチで概念的にシンプルであり、完全に畳み込み可能で、モバイルや組み込みデバイスに簡単に組み込むことができるアンカーフリーでシングルショットのインスタンスセグメンテーション手法を導入する。
EOLOと呼ばれる本手法では,各画素のインスタンス中心分類と4次元距離回帰により,意味的セグメンテーションを予測し,重なり合うオブジェクト問題を区別するものとして,インスタンス分割問題を再構成する。
ベルとホイッスルがなければ、EOLOはIoU50の下で27.7$%のマスクmAPを獲得し、1080Ti GPU上で30FPSに達し、シングルモデルとシングルスケールのトレーニング/テストが可能である。
論文 参考訳(メタデータ) (2020-03-31T21:22:05Z) - PointINS: Point-based Instance Segmentation [117.38579097923052]
POI(Point-of-Interest)機能によるインスタンスセグメンテーションにおけるマスク表現は、各インスタンスの高次元マスク機能を学ぶには、計算負荷が重いため、難しい。
本稿では、このマスク表現学習タスクを2つの抽出可能なモジュールに分解するインスタンス認識畳み込みを提案する。
インスタンス認識の畳み込みとともに、単純で実用的なインスタンスセグメンテーションアプローチであるPointINSを提案する。
論文 参考訳(メタデータ) (2020-03-13T08:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。