論文の概要: A Mixer Layer is Worth One Graph Convolution: Unifying MLP-Mixers and
GCNs for Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2304.03532v1
- Date: Fri, 7 Apr 2023 08:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 12:32:47.023474
- Title: A Mixer Layer is Worth One Graph Convolution: Unifying MLP-Mixers and
GCNs for Human Motion Prediction
- Title(参考訳): MLPミキサーとGCNを一体化して人間の動きを予測するミキサー層
- Authors: Xinshun Wang, Shen Zhao, Chen Chen, Mengyuan Liu
- Abstract要約: パラメータ化された隣接性を持つ完全連結グラフにミキサー層をグラフ層として適用できることを示す。
本稿ではメタミキシングネットワーク(M$2$Net)を提案する。
Human3.6M、AMASS、および3DPWデータセットに関する広範な評価は、M$2$-Netが他のすべてのアプローチより一貫して優れていることを示している。
- 参考スコア(独自算出の注目度): 10.485695660066744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past few years has witnessed the dominance of Graph Convolutional
Networks (GCNs) over human motion prediction, while their performance is still
far from satisfactory. Recently, MLP-Mixers show competitive results on top of
being more efficient and simple. To extract features, GCNs typically follow an
aggregate-and-update paradigm, while Mixers rely on token mixing and channel
mixing operations. The two research paths have been independently established
in the community. In this paper, we develop a novel perspective by unifying
Mixers and GCNs. We show that a mixer layer can be seen as a graph
convolutional layer applied to a fully-connected graph with parameterized
adjacency. Extending this theoretical finding to the practical side, we propose
Meta-Mixing Network (M$^2$-Net). Assisted with a novel zero aggregation
operation, our network is capable of capturing both the structure-agnostic and
the structure-sensitive dependencies in a collaborative manner. Not only is it
computationally efficient, but most importantly, it also achieves
state-of-the-art performance. An extensive evaluation on the Human3.6M, AMASS,
and 3DPW datasets shows that M$^2$-Net consistently outperforms all other
approaches. We hope our work brings the community one step further towards
truly predictable human motion. Our code will be publicly available.
- Abstract(参考訳): 過去数年間、人間の動き予測よりもグラフ畳み込みネットワーク(gcns)が支配的だったが、その性能はまだ満足のいくものではない。
近年、MLP-Mixersは、より効率的で簡便な競合結果を示している。
機能を抽出するために、GCNは一般的に集約と更新のパラダイムに従うが、Mixerはトークンの混合とチャネルの混合操作に依存している。
2つの研究経路は独立してコミュニティに確立されている。
本稿では,ミキサーとGCNを統合することで,新しい視点を開拓する。
パラメータ化された隣接性を持つ完全連結グラフに適用したグラフ畳み込み層としてミキサー層を見ることができる。
この理論的な発見を実用的側面に拡張し,メタ混合ネットワーク(m$^2$-net)を提案する。
新しいゼロアグリゲーション操作の支援により、ネットワークは構造非依存と構造に敏感な依存関係の両方を協調的に捉えることができる。
計算効率だけでなく、最先端のパフォーマンスも実現している。
Human3.6M、AMASS、および3DPWデータセットに関する広範な評価は、M$^2$-Netが他の全てのアプローチより一貫して優れていることを示している。
私たちは、コミュニティが本当に予測可能な人間の動きに向かって一歩前進することを願っています。
私たちのコードは公開されます。
関連論文リスト
- Graph Neural Machine: A New Model for Learning with Tabular Data [25.339493426758903]
グラフニューラルネットワーク(GNN)は最近、グラフ上で機械学習タスクを実行するための標準ツールになっている。
本稿では,表現が非同期メッセージパッシングGNNモデルと等価であることを示す。
次に、データのための新しい機械学習モデル、いわゆるグラフニューラルネットワーク(GNM)を提案する。
論文 参考訳(メタデータ) (2024-02-05T10:22:15Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - M3C: A Framework towards Convergent, Flexible, and Unsupervised Learning
of Mixture Graph Matching and Clustering [57.947071423091415]
本稿では,理論収束を保証する学習自由度アルゴリズムであるM3Cを提案する。
我々は、新しいエッジワイド親和性学習と擬似ラベル選択を組み込んだ教師なしモデルUM3Cを開発した。
提案手法は,最先端のグラフマッチングと混合グラフマッチングとクラスタリングの手法を精度と効率の両面で優れている。
論文 参考訳(メタデータ) (2023-10-27T19:40:34Z) - Edge-free but Structure-aware: Prototype-Guided Knowledge Distillation
from GNNs to MLPs [22.541655587228203]
グラフタスク上での低遅延多層パーセプトロン(MLP)への高精度グラフニューラルネットワーク(GNN)の蒸留はホットな研究トピックとなっている。
グラフエッジ(エッジフリー)を必要としないが構造認識を学習するプロトタイプガイド型知識蒸留(PGKD)法を提案する。
論文 参考訳(メタデータ) (2023-03-24T02:28:55Z) - Graph Mixer Networks [0.0]
グラフ構造化データの基盤ミクサーの原理を組み込んだグラフミクサーネットワーク(GNasNets, Graph Nasreddin Nets)を提案する。
複数のアグリゲータを持つPNAモデルを用いて,提案したGMNはグラフ変換器と比較して性能が向上したことを示す。
論文 参考訳(メタデータ) (2023-01-29T17:03:00Z) - A Generalization of ViT/MLP-Mixer to Graphs [32.86160915431453]
我々は、Graph ViT/MLP-Mixerと呼ばれる新しいGNNのクラスを紹介する。
長距離依存を捕捉し、オーバー・スカッシングの問題を緩和する。
ノード数とエッジ数にリニアな複雑さで、スピードとメモリ効率が向上する。
論文 参考訳(メタデータ) (2022-12-27T03:27:46Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - Back to MLP: A Simple Baseline for Human Motion Prediction [59.18776744541904]
本稿では、歴史的に観察されたシーケンスから将来の身体のポーズを予測することによる、人間の動作予測の課題に取り組む。
これらの手法の性能は、0.14Mパラメータしか持たない軽量で純粋にアーキテクチャアーキテクチャによって超えることができることを示す。
Human3.6M, AMASS, 3DPWデータセットの徹底的な評価は, siMLPeをダブした我々の手法が, 他のアプローチよりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2022-07-04T16:35:58Z) - GraphMLP: A Graph MLP-Like Architecture for 3D Human Pose Estimation [68.65764751482774]
GraphMLPは3次元ポーズ推定のためのグローバル-ローカル-グラフィック統合アーキテクチャである。
人体のグラフ構造をモデルに組み込んで、3D人間のポーズのドメイン固有の要求を満たす。
複雑な時間力学を単純な方法でモデル化するために拡張することができ、列長の計算コストは無視できる。
論文 参考訳(メタデータ) (2022-06-13T18:59:31Z) - MLP-Mixer: An all-MLP Architecture for Vision [93.16118698071993]
マルチ層パーセプトロン(MLP)を基盤としたアーキテクチャ「Mixer」を発表。
Mixerはイメージ分類ベンチマークで競合スコアを獲得し、事前トレーニングと推論は最先端のモデルに匹敵する。
論文 参考訳(メタデータ) (2021-05-04T16:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。