論文の概要: BoIR: Box-Supervised Instance Representation for Multi-Person Pose
Estimation
- arxiv url: http://arxiv.org/abs/2309.14072v1
- Date: Mon, 25 Sep 2023 12:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 15:50:20.904888
- Title: BoIR: Box-Supervised Instance Representation for Multi-Person Pose
Estimation
- Title(参考訳): BoIR:マルチパーソン・ポーズ推定のためのBox-Supervised Instance Representation
- Authors: Uyoung Jeong, Seungryul Baek, Hyung Jin Chang, Kwang In Kim
- Abstract要約: 本稿では,BoIRと呼ばれる境界ボックスレベルのインスタンス表現学習を提案する。
BoIRは同時に、インスタンス検出、インスタンスの切り離し、およびインスタンスキーポイント関連問題を解決します。
提案手法は,ボトムアップキーポイント推定,バウンディングボックス回帰,コントラッシブなインスタンス埋め込み学習のマルチタスク学習を利用する。
- 参考スコア(独自算出の注目度): 44.02361254801703
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Single-stage multi-person human pose estimation (MPPE) methods have shown
great performance improvements, but existing methods fail to disentangle
features by individual instances under crowded scenes. In this paper, we
propose a bounding box-level instance representation learning called BoIR,
which simultaneously solves instance detection, instance disentanglement, and
instance-keypoint association problems. Our new instance embedding loss
provides a learning signal on the entire area of the image with bounding box
annotations, achieving globally consistent and disentangled instance
representation. Our method exploits multi-task learning of bottom-up keypoint
estimation, bounding box regression, and contrastive instance embedding
learning, without additional computational cost during inference. BoIR is
effective for crowded scenes, outperforming state-of-the-art on COCO val (0.8
AP), COCO test-dev (0.5 AP), CrowdPose (4.9 AP), and OCHuman (3.5 AP). Code
will be available at https://github.com/uyoung-jeong/BoIR
- Abstract(参考訳): 単段階多対人ポーズ推定(MPPE)手法は,性能が向上したが,既存の手法では,混み合ったシーン下での個々のインスタンスによる特徴の絡み合わせに失敗した。
本稿では,BoIRと呼ばれる境界ボックスレベルのインスタンス表現学習を提案する。
新しいインスタンス埋め込み損失は、バウンディングボックスアノテーションでイメージ全体の学習シグナルを提供し、グローバルに一貫性があり、不整合なインスタンス表現を実現します。
提案手法は,ボトムアップキーポイント推定,境界ボックス回帰,コントラスト型インスタンス埋め込み学習のマルチタスク学習を,推論中に計算コストを増すことなく活用する。
BoIR は、COCO val (0.8 AP)、COCO test-dev (0.5 AP)、CrowdPose (4.9 AP)、OCHuman (3.5 AP) において、最先端のCOCO val (0.8 AP) よりも優れている。
コードはhttps://github.com/uyoung-jeong/BoIRで入手できる。
関連論文リスト
- Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - Instance-Variant Loss with Gaussian RBF Kernel for 3D Cross-modal
Retriveal [52.41252219453429]
既存の方法は全てのインスタンスを等しく扱い、同じペナルティ強度を様々な難易度を持つインスタンスに適用する。
これは曖昧な収束や局所最適性をもたらし、特徴空間の分離性を著しく妥協させる。
本稿では,異なるインスタンスに対して異なるペナルティ強度を割り当て,空間分離性を向上させるインスタンス・ヴァリアント損失を提案する。
論文 参考訳(メタデータ) (2023-05-07T10:12:14Z) - PointCLM: A Contrastive Learning-based Framework for Multi-instance
Point Cloud Registration [4.969636478156443]
PointCLMは、ミュートリインスタンスポイントクラウド登録のための対照的な学習ベースのフレームワークである。
提案手法は, 合成データと実データの両方において, 最先端の手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-01T04:30:05Z) - Single-Stage Open-world Instance Segmentation with Cross-task
Consistency Regularization [33.434628514542375]
オープンワールドのインスタンスセグメンテーションは、イメージからクラスに依存しないインスタンスをセグメントすることを目的としている。
本稿では,各インスタンスのマスクを直接生成する単一ステージフレームワークを提案する。
提案手法は, 完全教師付き設定と半教師付き設定の両方において, 印象的な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-08-18T18:55:09Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - FreeSOLO: Learning to Segment Objects without Annotations [191.82134817449528]
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T16:31:44Z) - Explicitly Modeling the Discriminability for Instance-Aware Visual
Object Tracking [13.311777431243296]
特徴表現の識別性を明らかにするための新しいインスタンス・アウェア・トラッカー (IAT) を提案する。
提案するIATには,ビデオレベルとオブジェクトレベルを含む2つのバリエーションを実装している。
どちらのバージョンも30FPSで動作しながら最先端のメソッドに対して主要な結果を得る。
論文 参考訳(メタデータ) (2021-10-28T11:24:01Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。