論文の概要: Unsupervised Performance Analysis of 3D Face Alignment with a
Statistically Robust Confidence Test
- arxiv url: http://arxiv.org/abs/2004.06550v6
- Date: Mon, 30 Oct 2023 09:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 05:20:02.961932
- Title: Unsupervised Performance Analysis of 3D Face Alignment with a
Statistically Robust Confidence Test
- Title(参考訳): 統計的ロバスト信頼テストによる3次元顔アライメントの教師なし性能解析
- Authors: Mostafa Sadeghi, Xavier Alameda-Pineda and Radu Horaud
- Abstract要約: 本稿では3次元顔アライメント(3DFA)の性能解析の問題点について述べる。
提案手法の中核となる要素は、予測されたランドマークとモデルランドマークの間の剛性変換の頑健な評価である。
その結果、提案手法は教師付きメトリクスと一致しており、予測されたランドマークと自動アノテーション付き3DFAデータセットの精度を測定できることがわかった。
- 参考スコア(独自算出の注目度): 32.43769049247355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of analysing the performance of 3D face
alignment (3DFA), or facial landmark localization. This task is usually
supervised, based on annotated datasets. Nevertheless, in the particular case
of 3DFA, the annotation process is rarely error-free, which strongly biases the
results. Alternatively, unsupervised performance analysis (UPA) is
investigated. The core ingredient of the proposed methodology is the robust
estimation of the rigid transformation between predicted landmarks and model
landmarks. It is shown that the rigid mapping thus computed is affected neither
by non-rigid facial deformations, due to variabilities in expression and in
identity, nor by landmark localization errors, due to various perturbations.
The guiding idea is to apply the estimated rotation, translation and scale to a
set of predicted landmarks in order to map them onto a mathematical home for
the shape embedded in these landmarks (including possible errors). UPA proceeds
as follows: (i) 3D landmarks are extracted from a 2D face using the 3DFA method
under investigation; (ii) these landmarks are rigidly mapped onto a canonical
(frontal) pose, and (iii) a statistically-robust confidence score is computed
for each landmark. This allows to assess whether the mapped landmarks lie
inside (inliers) or outside (outliers) a confidence volume. An experimental
evaluation protocol, that uses publicly available datasets and several 3DFA
software packages associated with published articles, is described in detail.
The results show that the proposed analysis is consistent with supervised
metrics and that it can be used to measure the accuracy of both predicted
landmarks and of automatically annotated 3DFA datasets, to detect errors and to
eliminate them. Source code and supplemental materials for this paper are
publicly available at https://team.inria.fr/robotlearn/upa3dfa/.
- Abstract(参考訳): 本稿では,3次元顔アライメント(3DFA)や顔のランドマーク位置解析の問題点について述べる。
このタスクは通常、アノテーション付きデータセットに基づいて管理される。
しかしながら、3DFAの場合、アノテーションプロセスはエラーのないことはめったになく、結果に強く偏っている。
また,教師なし性能解析(UPA)についても検討した。
提案手法の核となる要素は予測されたランドマークとモデルランドマークの間の剛性変換のロバストな推定である。
このように計算した剛性マッピングは、表情やアイデンティティの変動による非剛性な顔変形や、様々な摂動によるランドマーク化誤差の影響を受けないことが示されている。
先導的な考え方は、推定された回転、翻訳、スケールを予測されたランドマークの集合に適用して、これらのランドマークに埋め込まれた形状(潜在的なエラーを含む)を数学的ホームにマッピングすることである。
UPAは次のように進める。
(i)調査中の3DFA法を用いた2次元顔から3Dランドマークを抽出する。
(ii)これらのランドマークは、正準(正面)のポーズに厳格にマッピングされ、
(iii)各ランドマークに対して統計的に損なわれる信頼スコアを算出する。
これにより、マッピングされたランドマークが(インバータ)内側にあるか(インバータ)外側(アウトバータ)の信頼度ボリュームにあるかを評価することができる。
公開されているデータセットと公開記事に関連するいくつかの3DFAソフトウェアパッケージを利用する実験的な評価プロトコルについて詳述する。
その結果,提案手法は教師付きメトリクスと一致しており,予測されたランドマークと自動アノテートされた3dfaデータセットの両方の精度を計測し,エラーの検出と除去に使用することができる。
本論文のソースコードと補足資料はhttps://team.inria.fr/robotlearn/upa3dfa/で公開されている。
関連論文リスト
- Occlusion Handling in 3D Human Pose Estimation with Perturbed Positional Encoding [15.834419910916933]
固有基底から一貫した正規成分を抽出する新しい位置符号化手法PerturbPEを提案する。
実験結果では,Human3.6Mデータセットで最大12%のパフォーマンス向上が観測された。
我々の新しいアプローチは、2つのエッジが欠落しているシナリオのパフォーマンスを大幅に向上させ、最先端のベンチマークを新たに設定する。
論文 参考訳(メタデータ) (2024-05-27T17:48:54Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - OriCon3D: Effective 3D Object Detection using Orientation and Confidence [0.0]
1つの画像から3次元物体を検出するための高度な手法を提案する。
我々は、深層畳み込みニューラルネットワークに基づく3Dオブジェクト重み付け指向回帰パラダイムを用いる。
提案手法は, 3次元オブジェクトのポーズ決定の精度を大幅に向上し, ベースライン法を超越した。
論文 参考訳(メタデータ) (2023-04-27T19:52:47Z) - DQS3D: Densely-matched Quantization-aware Semi-supervised 3D Detection [6.096961718434965]
本研究では,3次元屋内空間の散在を考慮し,半教師付き3次元物体検出の課題について検討する。
我々は,最近セミ教師付き学習の顕著な進歩を招いた,堅牢で原則化された自己学習の枠組みに頼っている。
そこで本研究では,空間的に密集したトレーニング信号を可能にする,最初の半教師付き3次元検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-25T17:59:54Z) - VIBUS: Data-efficient 3D Scene Parsing with VIewpoint Bottleneck and
Uncertainty-Spectrum Modeling [2.0624279915507047]
3Dシーン解析モデルの訓練は、興味深い代替手段だ。
このタスクをデータ効率のよい3Dシーン解析と呼ぶ。
そこで本研究では,VIBUSという2段階の有効なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-20T17:59:57Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation [70.75100533512021]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。