論文の概要: POTTER: Pooling Attention Transformer for Efficient Human Mesh Recovery
- arxiv url: http://arxiv.org/abs/2303.13357v1
- Date: Thu, 23 Mar 2023 15:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:50:52.854783
- Title: POTTER: Pooling Attention Transformer for Efficient Human Mesh Recovery
- Title(参考訳): POTTER:効率的なヒューマンメッシュ回復のためのプール注意変換器
- Authors: Ce Zheng, Xianpeng Liu, Guo-Jun Qi, Chen Chen
- Abstract要約: トランスフォーマーアーキテクチャは、モノクル画像からのヒューマンメッシュリカバリ(HMR)におけるSOTA性能を達成している。
現実世界のアプリケーションには、正確なヒューマンメッシュを再構築するための軽量で効率的なモデルが必要である。
本稿では,単一画像からのHMRタスクに対して,Pooling aTtention TransformER (POTTER) という純粋変換器アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 43.47698370540302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer architectures have achieved SOTA performance on the human mesh
recovery (HMR) from monocular images. However, the performance gain has come at
the cost of substantial memory and computational overhead. A lightweight and
efficient model to reconstruct accurate human mesh is needed for real-world
applications. In this paper, we propose a pure transformer architecture named
POoling aTtention TransformER (POTTER) for the HMR task from single images.
Observing that the conventional attention module is memory and computationally
expensive, we propose an efficient pooling attention module, which
significantly reduces the memory and computational cost without sacrificing
performance. Furthermore, we design a new transformer architecture by
integrating a High-Resolution (HR) stream for the HMR task. The high-resolution
local and global features from the HR stream can be utilized for recovering
more accurate human mesh. Our POTTER outperforms the SOTA method METRO by only
requiring 7% of total parameters and 14% of the Multiply-Accumulate Operations
on the Human3.6M (PA-MPJPE metric) and 3DPW (all three metrics) datasets. The
project webpage is https://zczcwh.github.io/potter_page.
- Abstract(参考訳): トランスフォーマーアーキテクチャは、モノクル画像からのヒューマンメッシュリカバリ(HMR)におけるSOTA性能を達成した。
しかし、パフォーマンスの向上は、実質的なメモリと計算オーバーヘッドの犠牲になった。
現実世界のアプリケーションでは、正確なヒューマンメッシュを再構築する軽量で効率的なモデルが必要である。
本稿では,単一画像からのHMRタスクに対して,Pooling aTtention TransformER (POTTER) という純粋トランスアーキテクチャを提案する。
従来のアテンションモジュールがメモリで計算コストが高いことを察知し,性能を犠牲にすることなくメモリと計算コストを大幅に削減できる効率的なプールアテンションモジュールを提案する。
さらに,hmrタスクに高分解能(hr)ストリームを統合することで,新しいトランスフォーマティブアーキテクチャを設計する。
hrストリームからの高解像度のローカルおよびグローバル機能は、より正確なヒューマンメッシュの回復に利用できる。
我々のPOTTERは,Multiply-Accumulate Operations on the Human3.6M(PA-MPJPE)および3DPW(全3指標)データセットの7%と14%しか必要とせず,SOTA法のMETROよりも優れている。
プロジェクトwebページはhttps://zczcwh.github.io/potter_page。
関連論文リスト
- SMPLer: Taming Transformers for Monocular 3D Human Shape and Pose Estimation [74.07836010698801]
この問題に対処するために,SMPLベースのトランスフォーマーフレームワーク(SMPLer)を提案する。
SMPLerは、切り離された注意操作とSMPLベースのターゲット表現の2つの重要な要素を組み込んでいる。
SMPLerの既存の3次元人体形状に対する効果とポーズ推定方法の実証実験を行った。
論文 参考訳(メタデータ) (2024-04-23T17:59:59Z) - EfficientMorph: Parameter-Efficient Transformer-Based Architecture for 3D Image Registration [1.741980945827445]
教師なし3次元画像登録のためのトランスフォーマーベースアーキテクチャであるEfficientMorphを提案する。
航空機をベースとしたアテンション機構を通じて、地域と世界的なアテンションのバランスを最適化する。
カスケードされたグループアテンションによって計算の冗長性を低減し、計算効率を損なうことなく細部をキャプチャする。
論文 参考訳(メタデータ) (2024-03-16T22:01:55Z) - Hourglass Tokenizer for Efficient Transformer-Based 3D Human Pose Estimation [73.31524865643709]
本稿では,Hourglass Tokenizer (HoT) と呼ばれるプラグアンドプレイのプルーニング・アンド・リカバリフレームワークを提案する。
私たちのHoDTは、冗長なフレームのポーズトークンのプルーニングから始まり、フル長のトークンを復元することで終了します。
提案手法は,従来のVPTモデルと比較して高い効率性と推定精度を両立させることができる。
論文 参考訳(メタデータ) (2023-11-20T18:59:51Z) - MCUFormer: Deploying Vision Transformers on Microcontrollers with
Limited Memory [76.02294791513552]
我々はMCUFormerと呼ばれるハードウェア・アルゴリズムの協調最適化手法を提案し、メモリが極端に制限されたマイクロコントローラにビジョントランスフォーマーを配置する。
MCUFormerは320KBのメモリを持つ画像分類のためのImageNet上で73.62%のTop-1精度を実現している。
論文 参考訳(メタデータ) (2023-10-25T18:00:26Z) - Cross-Attention of Disentangled Modalities for 3D Human Mesh Recovery
with Transformers [17.22112222736234]
トランスフォーマーエンコーダアーキテクチャは近年,モノキュラー3次元メッシュ再構築における最先端の成果を達成している。
メモリのオーバーヘッドが大きく、推論速度が遅いため、そのようなモデルを実用的な用途に展開することは困難である。
本稿では,FastMETROと呼ばれる単一画像からの3次元メッシュ再構成のためのトランスフォーマエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-07-27T22:54:09Z) - FeatER: An Efficient Network for Human Reconstruction via Feature
Map-Based TransformER [46.23824464424351]
FeatERは、注意をモデリングする際に特徴マップ表現の本質的な構造を保存する新しいトランスフォーマー設計である。
特徴マップ再構成モジュールを適用し、推定された人間のポーズとメッシュの性能を向上させる。
論文 参考訳(メタデータ) (2022-05-30T22:09:57Z) - SideRT: A Real-time Pure Transformer Architecture for Single Image Depth
Estimation [11.513054537848227]
そこで我々は,SideRTと呼ばれる純粋なトランスフォーマーアーキテクチャを提案する。
これは、トランスフォーマーベースのネットワークが、単一画像深度推定フィールドにおいて、リアルタイムに最先端の性能が得られることを示す最初の研究である。
論文 参考訳(メタデータ) (2022-04-29T05:46:20Z) - HRFormer: High-Resolution Transformer for Dense Prediction [99.6060997466614]
本稿では高分解能な予測タスクのための高分解能表現を学習する高分解能変換器(HRFormer)を提案する。
我々は高分解能畳み込みネットワーク(HRNet)で導入された多分解能並列設計を利用する。
人間のポーズ推定とセマンティックセグメンテーションにおける高分解能トランスフォーマの有効性を示す。
論文 参考訳(メタデータ) (2021-10-18T15:37:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。