論文の概要: Reasoning Structural Relation for Occlusion-Robust Facial Landmark
Localization
- arxiv url: http://arxiv.org/abs/2112.10087v1
- Date: Sun, 19 Dec 2021 08:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:35:20.907066
- Title: Reasoning Structural Relation for Occlusion-Robust Facial Landmark
Localization
- Title(参考訳): Occlusion-Robust Facial Landmark Localizationのための推論構造関係
- Authors: Congcong Zhu, Xiaoqiang Li, Jide Li, Songmin Dai, Weiqin Tong
- Abstract要約: 本稿では,オクルージョン・ロバストなランドマークローカライゼーションのための構造関係ネットワーク(SRN)を提案する。
形状制約を単純に活用する既存の方法とは異なり、提案したSRNは異なる顔成分間の構造的関係を捉えることを目的としている。
提案手法は,隠蔽面とマスク面の優れた性能を実現する。
- 参考スコア(独自算出の注目度): 5.171058506312429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In facial landmark localization tasks, various occlusions heavily degrade the
localization accuracy due to the partial observability of facial features. This
paper proposes a structural relation network (SRN) for occlusion-robust
landmark localization. Unlike most existing methods that simply exploit the
shape constraint, the proposed SRN aims to capture the structural relations
among different facial components. These relations can be considered a more
powerful shape constraint against occlusion. To achieve this, a hierarchical
structural relation module (HSRM) is designed to hierarchically reason the
structural relations that represent both long- and short-distance spatial
dependencies. Compared with existing network architectures, HSRM can
efficiently model the spatial relations by leveraging its geometry-aware
network architecture, which reduces the semantic ambiguity caused by occlusion.
Moreover, the SRN augments the training data by synthesizing occluded faces. To
further extend our SRN for occluded video data, we formulate the occluded face
synthesis as a Markov decision process (MDP). Specifically, it plans the
movement of the dynamic occlusion based on an accumulated reward associated
with the performance degradation of the pre-trained SRN. This procedure
augments hard samples for robust facial landmark tracking. Extensive
experimental results indicate that the proposed method achieves outstanding
performance on occluded and masked faces. Code is available at
https://github.com/zhuccly/SRN.
- Abstract(参考訳): 顔のランドマーク位置決めタスクでは、顔の特徴の部分的可観測性により、様々な咬合が位置決め精度を著しく低下させる。
本稿では, 咬合-ロバストランドマーク定位のための構造関係ネットワーク (srn) を提案する。
形状制約を単純に活用する既存の方法とは異なり、SRNは異なる顔成分間の構造的関係を捉えることを目的としている。
これらの関係は、閉塞に対するより強力な形状制約と見なすことができる。
これを実現するために、階層構造関係モジュール(HSRM)は、長距離および短距離空間依存の両方を表す構造関係を階層的に解析するように設計されている。
既存のネットワークアーキテクチャと比較して、HSRMはその幾何学的ネットワークアーキテクチャを利用して空間関係を効率的にモデル化することができる。
さらに、SRNは、隠蔽された顔の合成によってトレーニングデータを増強する。
閉鎖された映像データに対するSRNをさらに拡張するため,マルコフ決定過程(MDP)として隠蔽顔合成を定式化する。
具体的には、事前訓練されたSRNの性能劣化に伴う累積報酬に基づいて、動的閉塞運動を計画する。
この手順は強固な顔ランドマーク追跡のためのハードサンプルを増強する。
広汎な実験結果から,提案手法は隠蔽面とマスク面の優れた性能を実現することが示唆された。
コードはhttps://github.com/zhuccly/SRNで入手できる。
関連論文リスト
- Robust Ensemble Person Re-Identification via Orthogonal Fusion with Occlusion Handling [4.431087385310259]
排除は、個人再識別(ReID)における大きな課題の1つとして残されている。
本稿では,CNN と Transformer アーキテクチャを併用し,ロバストな特徴表現を生成する深層アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T18:38:59Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Controllable and Guided Face Synthesis for Unconstrained Face
Recognition [17.08390901848988]
本稿では,スタイル潜在空間におけるターゲットデータセットの分布を模倣できる制御可能な顔合成モデル(CFSM)を提案する。
CFSMは、多様性と合成の度合いを正確に制御し、スタイル潜在空間の直交基底を持つ線型部分空間を学習する。
提案手法は,IJB-B,IJB-C,TinyFace,IJB-Sなどの制約のないベンチマークにおいて,大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-07-20T20:13:29Z) - Semi-signed neural fitting for surface reconstruction from unoriented
point clouds [53.379712818791894]
より優れた符号付き距離場を再構成するためのSN-Fittingを提案する。
SSNフィッティングは半署名の監督と損失に基づく領域サンプリング戦略で構成されている。
我々は,SSN-Fittingが,異なる設定下で最先端の性能を達成することを示す実験を行う。
論文 参考訳(メタデータ) (2022-06-14T09:40:17Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Region attention and graph embedding network for occlusion objective
class-based micro-expression recognition [26.5638344747854]
マイクロ圧縮認識(textbfMER)は10年間にわたって多くの研究者の注目を集めてきた。
本稿では,MER,ie,occlusion MERにおける興味深いが未解明の課題を深く研究する。
種々の顔領域間の関係をモデル化するために、アンダーラインRegionにインスパイアされたアンダーラインリレーションアンダーラインネットワーク(textbfRRRN)を提案する。
論文 参考訳(メタデータ) (2021-07-13T08:04:03Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z) - Relational Deep Feature Learning for Heterogeneous Face Recognition [17.494718795454055]
一般的な顔の特徴に加えて,グローバルな関係情報を抽出するグラフモジュール (Graph Module, NIR) を提案する。
提案手法は,5つの異種顔認識(HFR)データベースにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-02T07:35:23Z) - SD-GAN: Structural and Denoising GAN reveals facial parts under
occlusion [7.284661356980246]
咬合状態にある顔の欠損部分を再構成する生成モデルを提案する。
GAN(Generative Adversarial Network)モデルとして,2モーダルな相互排他的学習アルゴリズムを考案した。
提案手法は,顔認識の性能向上においても,競合する手法よりもかなり優れている。
論文 参考訳(メタデータ) (2020-02-19T21:12:49Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。