論文の概要: Unsupervised 3D Human Mesh Recovery from Noisy Point Clouds
- arxiv url: http://arxiv.org/abs/2107.07539v1
- Date: Thu, 15 Jul 2021 18:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:41:21.663974
- Title: Unsupervised 3D Human Mesh Recovery from Noisy Point Clouds
- Title(参考訳): 雑音点雲からの教師なし3次元メッシュ回収
- Authors: Xinxin Zuo and Sen Wang and Minglun Gong and Li Cheng
- Abstract要約: ノイズの多い点雲から人体形状やポーズを復元するための教師なしのアプローチを提案する。
私たちのネットワークは、教師付きデータでネットワークをウォームアップする必要がないように、ゼロからトレーニングされています。
- 参考スコア(独自算出の注目度): 30.401088478228235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel unsupervised approach to reconstruct human shape
and pose from noisy point cloud. Traditional approaches search for
correspondences and conduct model fitting iteratively where a good
initialization is critical. Relying on large amount of dataset with
ground-truth annotations, recent learning-based approaches predict
correspondences for every vertice on the point cloud; Chamfer distance is
usually used to minimize the distance between a deformed template model and the
input point cloud. However, Chamfer distance is quite sensitive to noise and
outliers, thus could be unreliable to assign correspondences. To address these
issues, we model the probability distribution of the input point cloud as
generated from a parametric human model under a Gaussian Mixture Model. Instead
of explicitly aligning correspondences, we treat the process of correspondence
search as an implicit probabilistic association by updating the posterior
probability of the template model given the input. A novel unsupervised loss is
further derived that penalizes the discrepancy between the deformed template
and the input point cloud conditioned on the posterior probability. Our
approach is very flexible, which works with both complete point cloud and
incomplete ones including even a single depth image as input. Our network is
trained from scratch with no need to warm-up the network with supervised data.
Compared to previous unsupervised methods, our method shows the capability to
deal with substantial noise and outliers. Extensive experiments conducted on
various public synthetic datasets as well as a very noisy real dataset (i.e.
CMU Panoptic) demonstrate the superior performance of our approach over the
state-of-the-art methods. Code can be found
\url{https://github.com/wangsen1312/unsupervised3dhuman.git}
- Abstract(参考訳): 本稿では,騒音点雲からヒトの形状とポーズを再構成する新しい非教師なしアプローチを提案する。
従来のアプローチでは、適切な初期化が重要となる反復的な対応と行動モデルを探索する。
最近の学習ベースのアプローチは、接地的アノテーションを持つ大量のデータセットに依存しており、ポイントクラウド上のすべての頂点に対する対応を予測している。
しかし、チャンファー距離はノイズや外れ値に非常に敏感であるため、通信を割り当てる信頼性が低い。
これらの問題に対処するため,我々はガウス混合モデルに基づくパラメトリック人体モデルから生成される入力点雲の確率分布をモデル化する。
対応を明示的に調整する代わりに、入力されたテンプレートモデルの後方確率を更新することにより、対応探索の過程を暗黙の確率的関連として扱う。
さらに、変形したテンプレートと後確率で条件付けられた入力点クラウドとのずれをペナルティ化する新しい教師なし損失を導出する。
私たちのアプローチは非常に柔軟で、完全なポイントクラウドと、単一の深度イメージを入力として含む不完全なクラウドの両方で動作する。
私たちのネットワークはスクラッチからトレーニングされ、監視されたデータでネットワークをウォームアップする必要はありません。
従来の教師なし手法と比較して,本手法はノイズや外れ値に対処する能力を示す。
様々な公開合成データセットと非常に騒がしい実データセット(すなわち)で広範な実験が行われた。
CMU Panoptic)は、最先端の手法に対する我々のアプローチの優れた性能を示す。
コードは \url{https://github.com/wangsen1312/unsupervised3d human.git}
関連論文リスト
- Towards Scalable 3D Anomaly Detection and Localization: A Benchmark via
3D Anomaly Synthesis and A Self-Supervised Learning Network [22.81108868492533]
本稿では,既存の大規模3次元モデルに適応して3次元異常検出を行うための3次元異常合成パイプラインを提案する。
Anomaly-ShapeNetは、40カテゴリ以下の1600点のクラウドサンプルで構成され、リッチで多様なデータ収集を提供する。
また、3次元異常局所化のためのスケーラブルな表現学習を可能にする自己教師型マスク再構成ネットワーク(IMRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-25T01:45:09Z) - Mixing-Denoising Generalizable Occupancy Networks [10.316008740970037]
現在の最先端の暗黙のニューラル形状モデルは、畳み込みの帰納的バイアスに依存している。
固有モデルバイアスを緩和し、再構成タスクに関連する補助正規化で仮説空間を制約する。
結果として得られたモデルは、ポイントクラウドネットワークからローカルに条件付けされた最初のMLPである。
論文 参考訳(メタデータ) (2023-11-20T19:05:57Z) - Robust One Round Federated Learning with Predictive Space Bayesian
Inference [19.533268415744338]
クライアントの予測後部を用いて,グローバルな予測後部を近似する方法を示す。
本稿では,各クライアントでMCMCサンプリングを行い,局所的な後部推定を行い,それらを1ラウンドで集約し,大域的なアンサンブルモデルを得るアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-20T01:06:59Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - DPC: Unsupervised Deep Point Correspondence via Cross and Self
Construction [29.191330510706408]
本稿では, 形状構造に基づく点雲間のリアルタイム非剛性密度対応法を提案する。
提案手法はディープポイント対応 (DPC) と呼ばれ, 従来の手法と比較してトレーニングデータのごく一部を必要とする。
提案手法は,最近の最先端対応手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-10-16T18:41:13Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - LoopReg: Self-supervised Learning of Implicit Surface Correspondences,
Pose and Shape for 3D Human Mesh Registration [123.62341095156611]
LoopRegは、スキャンのコーパスを一般的な3Dモデルに登録するエンドツーエンドの学習フレームワークである。
ニューラルネットワークによってパラメータ化された後方マップは、スキャンポイント毎から人間のモデルの表面への対応を予測する。
人間のモデルによってパラメータ化されたフォワードマップは、モデルパラメータ(目的と形状)に基づいて対応するポイントをスキャンに変換する。
論文 参考訳(メタデータ) (2020-10-23T14:39:50Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z) - Learning Nonparametric Human Mesh Reconstruction from a Single Image
without Ground Truth Meshes [56.27436157101251]
そこで本研究では,人間のメッシュ再構築を基礎となる真理メッシュを使わずに学習する手法を提案する。
これはグラフ畳み込みニューラルネットワーク(Graph CNN)の損失関数に2つの新しい用語を導入することで実現される。
論文 参考訳(メタデータ) (2020-02-28T20:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。