論文の概要: Adaptive Graphical Model Network for 2D Handpose Estimation
- arxiv url: http://arxiv.org/abs/1909.08205v2
- Date: Fri, 28 Apr 2023 04:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 18:16:09.926796
- Title: Adaptive Graphical Model Network for 2D Handpose Estimation
- Title(参考訳): 2次元ハンドプレース推定のための適応的グラフィカルモデルネットワーク
- Authors: Deying Kong, Yifei Chen, Haoyu Ma, Xiangyi Yan, Xiaohui Xie
- Abstract要約: 単眼RGB画像からの2次元手ポーズ推定の課題に対処する新しいアーキテクチャを提案する。
アダプティブ・グラフィカル・モデル・ネットワーク(Adaptive Graphical Model Network, AGMN)は、単一のポテンシャル関数とペアのポテンシャル関数を計算するための深部畳み込みニューラルネットワークの2つの枝からなる。
提案手法は,2つの公開データセットに対する顕著なマージンによる2次元手指キーポイント推定における最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 19.592024471753025
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose a new architecture called Adaptive Graphical Model
Network (AGMN) to tackle the task of 2D hand pose estimation from a monocular
RGB image. The AGMN consists of two branches of deep convolutional neural
networks for calculating unary and pairwise potential functions, followed by a
graphical model inference module for integrating unary and pairwise potentials.
Unlike existing architectures proposed to combine DCNNs with graphical models,
our AGMN is novel in that the parameters of its graphical model are conditioned
on and fully adaptive to individual input images. Experiments show that our
approach outperforms the state-of-the-art method used in 2D hand keypoints
estimation by a notable margin on two public datasets. Code can be found at
https://github.com/deyingk/agmn.
- Abstract(参考訳): 本稿では,単眼rgb画像から2次元手ポーズ推定の課題に取り組むために,適応型グラフィカルモデルネットワーク(agmn)と呼ばれる新しいアーキテクチャを提案する。
agmnは、ユニタリポテンシャルとペアワイズポテンシャル関数を計算するための深い畳み込みニューラルネットワークの2つの分岐と、ユニリーポテンシャルとペアワイズポテンシャルを統合するグラフィカルモデル推論モジュールからなる。
DCNNとグラフィカルモデルを組み合わせるために提案されている既存のアーキテクチャとは異なり、AGMNはグラフィカルモデルのパラメータが個々の入力画像に完全に適応していることが特徴である。
実験により,2dハンドキーポイント推定における最先端手法を2つの公開データセットにおいて有意なマージンで上回っていることを示す。
コードはhttps://github.com/deyingk/agmn.comにある。
関連論文リスト
- DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転における3D環境を理解するための自己教師型学習フレームワークである。
スパースでシングルフレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する。
RGB、奥行き、特徴画像を再構成するために、異なるレンダリングで自己教師される。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - Iterative Graph Filtering Network for 3D Human Pose Estimation [5.177947445379688]
グラフ畳み込みネットワーク(GCN)は3次元人間のポーズ推定に有効な手法であることが証明されている。
本稿では,3次元ポーズ推定のための反復グラフフィルタリングフレームワークを提案する。
我々のアプローチは、ラプラシア正規化によるグラフフィルタリングを反復的に解くという考え方に基づいている。
論文 参考訳(メタデータ) (2023-07-29T20:46:44Z) - Interpretable 2D Vision Models for 3D Medical Images [47.75089895500738]
本研究では,3次元画像処理における中間特徴表現を用いた2次元ネットワークの適応手法を提案する。
我々は、ベンチマークとして3D MedMNISTデータセットと、既存の手法に匹敵する数百の高分解能CTまたはMRIスキャンからなる2つの実世界のデータセットを示す。
論文 参考訳(メタデータ) (2023-07-13T08:27:09Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - K-Order Graph-oriented Transformer with GraAttention for 3D Pose and
Shape Estimation [20.711789781518753]
KOG-Transformer というグラフ構造データに対する2次元から3次元のポーズ推定ネットワークを提案する。
また,GASE-Netという手動データのための3次元ポーズ・ツー・シェイプ推定ネットワークを提案する。
論文 参考訳(メタデータ) (2022-08-24T06:54:03Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Learning Gaussian Graphical Models with Latent Confounders [74.72998362041088]
我々は、グラフィカルモデルにおける推論のための2つの戦略を、潜伏した共同創設者と比較し、対比する。
これら2つのアプローチは、類似した目標を持っているが、それらは共起に関する異なる仮定によって動機付けられている。
これら2つのアプローチの強みを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T00:53:03Z) - Pose-GNN : Camera Pose Estimation System Using Graph Neural Networks [12.12580095956898]
グラフニューラルネットワーク(GNN)を用いた新しい画像ベースのローカリゼーションシステムを提案する。
resnet50 convolutional neural network (cnn)アーキテクチャは、各画像の重要な特徴を抽出するために使用される。
GNNの使用は屋内および屋外の環境のための高められた性能をもたらすことを示します。
論文 参考訳(メタデータ) (2021-03-17T04:40:02Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Rotation-invariant Mixed Graphical Model Network for 2D Hand Pose
Estimation [21.19641797725211]
我々は、R-MGMN(Rotation-invariant Mixed Graphical Model Network)という新しいアーキテクチャを提案する。
回転ネットを統合することにより、R-MGMNは画像中の手の回転に不変である。
R-MGMNを2つの公開ポーズデータセットで評価する。
論文 参考訳(メタデータ) (2020-02-05T23:05:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。