論文の概要: Alleviating Human-level Shift : A Robust Domain Adaptation Method for
Multi-person Pose Estimation
- arxiv url: http://arxiv.org/abs/2008.05717v1
- Date: Thu, 13 Aug 2020 06:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:23:54.854728
- Title: Alleviating Human-level Shift : A Robust Domain Adaptation Method for
Multi-person Pose Estimation
- Title(参考訳): 人間レベルのシフトを緩和する : マルチパーソン・ポース推定のためのロバスト領域適応法
- Authors: Xixia Xu, Qi Zou, Xue Lin
- Abstract要約: 複数人物のポーズ推定のための新しい領域適応手法を提案する。
主な理由は、自然に、ポーズが典型的な位相構造を持ち、局所的なキーポイントにきめ細かい特徴を必要とするからである。
提案手法は3つのモジュールから構成される: クロス・アテンティブ・フィーチャーアライメント(CAFA)、ドメイン内構造アライメント(ISA)、ドメイン間ヒューマントポロジーアライメント(IHTA)。
- 参考スコア(独自算出の注目度): 33.15192824888279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human pose estimation has been widely studied with much focus on supervised
learning requiring sufficient annotations. However, in real applications, a
pretrained pose estimation model usually need be adapted to a novel domain with
no labels or sparse labels. Such domain adaptation for 2D pose estimation
hasn't been explored. The main reason is that a pose, by nature, has typical
topological structure and needs fine-grained features in local keypoints. While
existing adaptation methods do not consider topological structure of
object-of-interest and they align the whole images coarsely. Therefore, we
propose a novel domain adaptation method for multi-person pose estimation to
conduct the human-level topological structure alignment and fine-grained
feature alignment. Our method consists of three modules: Cross-Attentive
Feature Alignment (CAFA), Intra-domain Structure Adaptation (ISA) and
Inter-domain Human-Topology Alignment (IHTA) module. The CAFA adopts a
bidirectional spatial attention module (BSAM)that focuses on fine-grained local
feature correlation between two humans to adaptively aggregate consistent
features for adaptation. We adopt ISA only in semi-supervised domain adaptation
(SSDA) to exploit the corresponding keypoint semantic relationship for reducing
the intra-domain bias. Most importantly, we propose an IHTA to learn more
domain-invariant human topological representation for reducing the inter-domain
discrepancy. We model the human topological structure via the graph convolution
network (GCN), by passing messages on which, high-order relations can be
considered. This structure preserving alignment based on GCN is beneficial to
the occluded or extreme pose inference. Extensive experiments are conducted on
two popular benchmarks and results demonstrate the competency of our method
compared with existing supervised approaches.
- Abstract(参考訳): 人間のポーズ推定は、十分なアノテーションを必要とする教師付き学習に重点を置いて、広く研究されてきた。
しかし、実際のアプリケーションでは、事前訓練されたポーズ推定モデルは、ラベルやスパースラベルのない新しいドメインに適応する必要がある。
このような2次元ポーズ推定の領域適応は検討されていない。
主な理由は、ポーズが典型的な位相構造を持ち、局所的なキーポイントにきめ細かい特徴を必要とするためである。
既存の適応法は対象物の位相構造を考慮せず、画像全体を粗く整列させる。
そこで本研究では,多人数ポーズ推定のための新しい領域適応手法を提案し,人間レベルの位相構造アライメントときめ細かい特徴アライメントを実現する。
本手法は3つのモジュールから構成される:クロス・アテンティブ・フィーチャー・アライメント(CAFA)、ドメイン内構造適応(ISA)、ドメイン間ヒューマントポロジー・アライメント(IHTA)モジュール。
CAFAは、適応のための一貫した特徴を適応的に集約するために、2人の人間間のきめ細かい局所的特徴相関に焦点を当てた双方向空間的注意モジュール(BSAM)を採用している。
準教師付きドメイン適応(SSDA)においてのみISAを採用し、対応するキーポイント意味関係を利用してドメイン内バイアスを低減する。
最も重要なことは、ドメイン間の差異を減らすために、よりドメイン不変な人間トポロジ表現を学習するためのIHTAを提案することである。
グラフ畳み込みネットワーク(GCN)を用いて,高次関係を考慮したメッセージの送信により,人間のトポロジ構造をモデル化する。
GCNに基づくアライメントを保持する構造は、隠蔽または極端なポーズ推論に有用である。
2つの人気のあるベンチマークで広範な実験を行い,従来の教師付き手法と比較し,提案手法の能力を示す。
関連論文リスト
- Discriminative Radial Domain Adaptation [62.22362756424971]
本稿では、ソースとターゲットドメインを共有ラジアル構造を介してブリッジする差別的ラジアルドメイン適応(DRDR)を提案する。
このような固有識別構造を移行することで,特徴伝達性と識別可能性の同時向上が期待できることを示す。
提案手法は,様々なタスクに対する最先端のアプローチを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2023-01-01T10:56:31Z) - Generative Domain Adaptation for Face Anti-Spoofing [38.12738183385737]
教師なしドメイン適応(UDA)に基づくアンチスプーフィングアプローチは、ターゲットシナリオに対する有望なパフォーマンスのために注目を集めている。
既存のUDA FASメソッドは、通常、セマンティックな高レベルの機能の分布を整列することで、トレーニングされたモデルをターゲットドメインに適合させる。
対象データをモデルに直接適合させ、画像翻訳により対象データをソースドメインスタイルにスタイリングし、さらに、訓練済みのソースモデルにスタイリングされたデータを入力して分類する、UDA FASの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-07-20T16:24:57Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Domain Generalisation for Object Detection under Covariate and Concept Shift [10.32461766065764]
ドメインの一般化は、ドメイン固有の特徴を抑えながら、ドメイン不変の機能の学習を促進することを目的としている。
オブジェクト検出のためのドメイン一般化手法を提案し, オブジェクト検出アーキテクチャに適用可能な最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-10T11:14:18Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Contextual-Relation Consistent Domain Adaptation for Semantic
Segmentation [44.19436340246248]
本稿では,革新的局所文脈相関整合ドメイン適応手法を提案する。
グローバルレベルのアライメントにおいて、地域レベルのコンピテンシーを達成することを目的としている。
実験では, 最先端手法と比較して, セグメンテーション性能が優れていることを示した。
論文 参考訳(メタデータ) (2020-07-05T19:00:46Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。