論文の概要: Humans need not label more humans: Occlusion Copy & Paste for Occluded
Human Instance Segmentation
- arxiv url: http://arxiv.org/abs/2210.03686v1
- Date: Fri, 7 Oct 2022 16:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:27:18.245861
- Title: Humans need not label more humans: Occlusion Copy & Paste for Occluded
Human Instance Segmentation
- Title(参考訳): 人間はもっと人間をラベル付けする必要はない:Occlusion Copy & Paste for Occluded Human Instance Segmentation
- Authors: Evan Ling, Dezhao Huang and Minhoe Hur
- Abstract要約: 我々は,Occlusion Copy & Pasteを提案する。
既存の大規模データセットを活用するだけで、排他的シナリオのインスタンスセグメンテーションのパフォーマンスが向上する。
そこで本研究では,コピー&ペースト拡張のための様々なアドオンが,実際に性能向上に寄与するかどうかを検証した。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern object detection and instance segmentation networks stumble when
picking out humans in crowded or highly occluded scenes. Yet, these are often
scenarios where we require our detectors to work well. Many works have
approached this problem with model-centric improvements. While they have been
shown to work to some extent, these supervised methods still need sufficient
relevant examples (i.e. occluded humans) during training for the improvements
to be maximised. In our work, we propose a simple yet effective data-centric
approach, Occlusion Copy & Paste, to introduce occluded examples to models
during training - we tailor the general copy & paste augmentation approach to
tackle the difficult problem of same-class occlusion. It improves instance
segmentation performance on occluded scenarios for "free" just by leveraging on
existing large-scale datasets, without additional data or manual labelling
needed. In a principled study, we show whether various proposed add-ons to the
copy & paste augmentation indeed contribute to better performance. Our
Occlusion Copy & Paste augmentation is easily interoperable with any models: by
simply applying it to a recent generic instance segmentation model without
explicit model architectural design to tackle occlusion, we achieve
state-of-the-art instance segmentation performance on the very challenging
OCHuman dataset. Source code is available at
https://github.com/levan92/occlusion-copy-paste.
- Abstract(参考訳): 現代のオブジェクト検出とインスタンスのセグメンテーションネットワークは、混み合った、あるいは非常に目立たないシーンで人間を拾うとめちゃくちゃになってしまう。
しかし、これらのシナリオは、検出器をうまく動作させる必要がある場合が多い。
多くの作品がモデル中心の改善でこの問題に取り組んできた。
ある程度は機能することが示されているが、これらの監督された方法には、改善を最大化するためのトレーニング中に十分な関連する例(例えば、閉塞された人間)が必要である。
本研究は,訓練中にモデルにオクルードされた例を導入するための,単純かつ効果的なデータ中心アプローチであるオクルージョンコピー&ペーストを提案する。
既存の大規模データセットを活用するだけで、追加データや手動ラベリングを必要とせずに、オクルードされたシナリオのインスタンスセグメンテーションパフォーマンスが向上する。
そこで本研究では,コピー&ペースト拡張のための様々なアドオンが,性能向上に有効であることを示す。
Occlusion Copy & Paste augmentationは、任意のモデルと容易に相互運用可能です。OCHumanデータセット上で、明示的なモデルアーキテクチャ設計をせずに、最新のジェネリックインスタンスセグメンテーションモデルにそれを適用すれば、最先端のインスタンスセグメンテーションのパフォーマンスを達成できます。
ソースコードはhttps://github.com/levan92/occlusion-copy-pasteで入手できる。
関連論文リスト
- Ins-HOI: Instance Aware Human-Object Interactions Recovery [44.02128629239429]
本稿では,エンド・ツー・エンドのインスタンス・アウェアなヒューマン・オブジェクト・インタラクション・リカバリ(Ins-HOI)フレームワークを提案する。
Ins-HOIはインスタンスレベルの再構築をサポートし、合理的で現実的な接触面を提供する。
我々は、現実世界の人間-椅子と手-物体の相互作用を伴う5.2kの高品質スキャンを含む、大規模で高忠実な3Dスキャンデータセットを収集します。
論文 参考訳(メタデータ) (2023-12-15T09:30:47Z) - Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - Combining Public Human Activity Recognition Datasets to Mitigate Labeled
Data Scarcity [1.274578243851308]
本稿では,一般公開されたデータセットと一般化されたHARモデルを学習するための新たな戦略を提案する。
我々の実験評価は、さまざまな最先端ニューラルネットワークアーキテクチャの実験を含むもので、公開データセットを組み合わせることで、ラベル付きサンプルの数を著しく削減できることを示している。
論文 参考訳(メタデータ) (2023-06-23T18:51:22Z) - Prototype-Sample Relation Distillation: Towards Replay-Free Continual
Learning [14.462797749666992]
本稿では,表現とクラスプロトタイプを共同で学習するための総合的なアプローチを提案する。
本稿では,新しいタスクデータと比較して,クラスプロトタイプの相対的類似性を維持することを制約する新しい蒸留損失を提案する。
この手法はタスクインクリメンタル設定における最先端性能を得る。
論文 参考訳(メタデータ) (2023-03-26T16:35:45Z) - CellTranspose: Few-shot Domain Adaptation for Cellular Instance
Segmentation [4.38301148531795]
我々は、最小限の新しい注釈付きデータとトレーニング時間を必要とするアプローチを設計する問題に対処する。
我々は、いくつかの注釈付きサンプルを非常に効率的に活用する、特別な対照的な損失を設計する。
論文 参考訳(メタデータ) (2022-12-28T23:00:50Z) - X-Paste: Revisiting Scalable Copy-Paste for Instance Segmentation using
CLIP and StableDiffusion [137.84635386962395]
Copy-Pasteは、インスタンスセグメンテーションのためのシンプルで効果的なデータ拡張戦略である。
新たに登場したゼロショット認識モデルのパワーで、Copy-Pasteを大規模に再考する。
X-Pasteは、Swin-Lをバックボーンとして、強力なベースラインであるCenterNet2よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-07T18:59:59Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。