論文の概要: 3D Human Pose Estimation Using M\"obius Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2203.10554v1
- Date: Sun, 20 Mar 2022 13:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:48:53.033864
- Title: 3D Human Pose Estimation Using M\"obius Graph Convolutional Networks
- Title(参考訳): m\"obius graph convolutional networkを用いた3次元人物ポーズ推定
- Authors: Niloofar Azizi, Horst Possegger, Emanuele Rodol\`a, Horst Bischof
- Abstract要約: M"obius変換(M"obiusGCN)を用いた新しいスペクトルグラフ畳み込みネットワーク(GCN)を提案する。
特に、これによって関節間の変換を直接的かつ明示的に符号化することができ、結果としてよりコンパクトな表現が得られる。
我々は、Human3.6MとMPI-INF-3DHPの2つの挑戦的ポーズ推定ベンチマークに対するアプローチを評価し、現状とM"obiusGCNの一般化能力を実証した。
- 参考スコア(独自算出の注目度): 5.96002531660335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D human pose estimation is fundamental to understanding human behavior.
Recently, promising results have been achieved by graph convolutional networks
(GCNs), which achieve state-of-the-art performance and provide rather
light-weight architectures. However, a major limitation of GCNs is their
inability to encode all the transformations between joints explicitly. To
address this issue, we propose a novel spectral GCN using the M\"obius
transformation (M\"obiusGCN). In particular, this allows us to directly and
explicitly encode the transformation between joints, resulting in a
significantly more compact representation. Compared to even the lightest
architectures so far, our novel approach requires 90-98% fewer parameters, i.e.
our lightest M\"obiusGCN uses only 0.042M trainable parameters. Besides the
drastic parameter reduction, explicitly encoding the transformation of joints
also enables us to achieve state-of-the-art results. We evaluate our approach
on the two challenging pose estimation benchmarks, Human3.6M and MPI-INF-3DHP,
demonstrating both state-of-the-art results and the generalization capabilities
of M\"obiusGCN.
- Abstract(参考訳): 人間の行動を理解するには3次元のポーズ推定が不可欠である。
近年、最先端の性能を達成し、比較的軽量なアーキテクチャを提供するグラフ畳み込みネットワーク(GCN)によって有望な結果が得られている。
しかし、GCNの最大の制限は、結合間のすべての変換を明示的にエンコードできないことである。
この問題に対処するために,M\"obius transformation (M\"obiusGCN") を用いた新しいスペクトルGCNを提案する。
特に、これによって関節間の変換を直接的かつ明示的に符号化することができ、結果としてよりコンパクトな表現が得られる。
これまでの最も軽いアーキテクチャと比べても、我々の新しいアプローチは90~98%のパラメータを必要とし、つまり最も軽いm\"obiusgcnは0.042mのトレーニング可能なパラメータしか使用していません。
急激なパラメータ削減に加えて、関節の変形を明示的に符号化することで、最先端の成果も達成できる。
我々は、Human3.6MとMPI-INF-3DHPの2つの挑戦的ポーズ推定ベンチマークに対するアプローチを評価し、現状とM\"obiusGCNの一般化能力を実証した。
関連論文リスト
- GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - SMPLer: Taming Transformers for Monocular 3D Human Shape and Pose Estimation [74.07836010698801]
この問題に対処するために,SMPLベースのトランスフォーマーフレームワーク(SMPLer)を提案する。
SMPLerは、切り離された注意操作とSMPLベースのターゲット表現の2つの重要な要素を組み込んでいる。
SMPLerの既存の3次元人体形状に対する効果とポーズ推定方法の実証実験を行った。
論文 参考訳(メタデータ) (2024-04-23T17:59:59Z) - Double-chain Constraints for 3D Human Pose Estimation in Images and
Videos [21.42410292863492]
深度情報を欠く2次元のポーズから3Dのポーズを再構築することは、人間の動きの複雑さと多様性のために困難である。
ポーズを制約する新しいモデルであるDouble-chain Graph Convolutional Transformer (DC-GCT)を提案する。
本稿では,DC-GCTが2つの挑戦的データセットに対して最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-08-10T02:41:18Z) - Overcoming Topology Agnosticism: Enhancing Skeleton-Based Action
Recognition through Redefined Skeletal Topology Awareness [24.83836008577395]
グラフ畳み込みネットワーク(GCN)は長い間、骨格に基づく行動認識の最先端を定義してきた。
彼らはモデルの重みとともに隣接行列を最適化する傾向がある。
このプロセスは、骨接続データの段階的な崩壊を引き起こし、マッピングしようとしたトポロジとは無関係なモデルで終わる。
本稿では,骨の接続性をグラフ距離のパワーを利用して符号化する革新的な経路を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:40:12Z) - Back to MLP: A Simple Baseline for Human Motion Prediction [59.18776744541904]
本稿では、歴史的に観察されたシーケンスから将来の身体のポーズを予測することによる、人間の動作予測の課題に取り組む。
これらの手法の性能は、0.14Mパラメータしか持たない軽量で純粋にアーキテクチャアーキテクチャによって超えることができることを示す。
Human3.6M, AMASS, 3DPWデータセットの徹底的な評価は, siMLPeをダブした我々の手法が, 他のアプローチよりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2022-07-04T16:35:58Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Mesh Graphormer [17.75480888764098]
グラフ畳み込み強化変換器であるMesh Graphormerを1枚の画像から3次元の人間のポーズとメッシュ再構成を行う。
論文 参考訳(メタデータ) (2021-04-01T06:16:36Z) - Context Modeling in 3D Human Pose Estimation: A Unified Perspective [27.36648656930247]
本稿では, PSM と GNN が特殊ケースである文脈モデリングの一般公式を提案する。
両手法を比較して, GNN の終末訓練法と PSM の辺縁長制約が相補的要因であることを確認した。
深いネットワークでソフトな手足長の制約を強制できる注意メカニズムに基づいたContextPoseを提案します。
論文 参考訳(メタデータ) (2021-03-29T11:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。