論文の概要: STEP: Spatial Temporal Graph Convolutional Networks for Emotion Perception from Gaits
- arxiv url: http://arxiv.org/abs/1910.12906v3
- Date: Fri, 22 Nov 2024 22:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-08 08:47:15.490484
- Title: STEP: Spatial Temporal Graph Convolutional Networks for Emotion Perception from Gaits
- Title(参考訳): STEP: 歩行からの感情知覚のための時空間グラフ畳み込みネットワーク
- Authors: Uttaran Bhattacharya, Trisha Mittal, Rohan Chandra, Tanmay Randhavane, Aniket Bera, Dinesh Manocha,
- Abstract要約: 歩行から知覚された人間の感情を分類するために,STEPと呼ばれる新しいネットワークを提案する。
私たちは何百もの注釈付き現実世界のゲイトビデオを使って、何千もの注釈付き合成ゲイトでそれらを強化しています。
STEPは感情の特徴を学習でき、E-Gaitでは89%の分類精度を示す。
- 参考スコア(独自算出の注目度): 60.37683428887577
- License:
- Abstract: We present a novel classifier network called STEP, to classify perceived human emotion from gaits, based on a Spatial Temporal Graph Convolutional Network (ST-GCN) architecture. Given an RGB video of an individual walking, our formulation implicitly exploits the gait features to classify the emotional state of the human into one of four emotions: happy, sad, angry, or neutral. We use hundreds of annotated real-world gait videos and augment them with thousands of annotated synthetic gaits generated using a novel generative network called STEP-Gen, built on an ST-GCN based Conditional Variational Autoencoder (CVAE). We incorporate a novel push-pull regularization loss in the CVAE formulation of STEP-Gen to generate realistic gaits and improve the classification accuracy of STEP. We also release a novel dataset (E-Gait), which consists of $2,177$ human gaits annotated with perceived emotions along with thousands of synthetic gaits. In practice, STEP can learn the affective features and exhibits classification accuracy of 89% on E-Gait, which is 14 - 30% more accurate over prior methods.
- Abstract(参考訳): 本稿では,STEP(Spatial Temporal Graph Convolutional Network:時空間グラフ畳み込みネットワーク)アーキテクチャに基づいて,人間の感情を歩行から識別する新たな分類手法を提案する。
個人が歩く様子をRGB動画で見ると、私たちの定式化は、人間の感情状態を幸せ、悲しみ、怒り、中立の4つの感情の1つに分類するために、歩行の特徴を暗黙的に活用します。
我々は、ST-GCNベースの条件変分オートエンコーダ(CVAE)上に構築された、STEP-Genと呼ばれる新しい生成ネットワークを用いて、数百の注釈付き実世界の歩行ビデオを使用し、数千の注釈付き合成歩行を増強する。
我々は,STEP-GenのCVAE定式化に新たなプッシュプル正規化損失を取り入れ,現実的な歩行を発生させ,STEPの分類精度を向上させる。
我々はまた、知覚された感情を付加した2,177ドルの人間の歩行と何千もの合成歩行からなる新しいデータセット(E-Gait)もリリースしました。
実際には、STEPは感情の特徴を学習でき、E-Gaitでは89%の分類精度を示す。
関連論文リスト
- LLM-Based Multi-Agent Systems are Scalable Graph Generative Models [73.28294528654885]
GraphAgent-Generator (GAG) は動的でテキスト対応のソーシャルグラフ生成のための新しいシミュレーションベースのフレームワークである。
GAGは、ゼロショットソーシャルグラフ生成のための時間ノードとエッジ生成プロセスをシミュレートする。
得られたグラフは7つの主要なマクロ的ネットワーク特性に付着し、微視的グラフ構造測定において11%の改善が達成される。
論文 参考訳(メタデータ) (2024-10-13T12:57:08Z) - EmT: A Novel Transformer for Generalized Cross-subject EEG Emotion Recognition [11.027908624804535]
感情トランス(EmT)と呼ばれる新しいトランスモデルを導入する。
EmTは、一般化されたクロスオブジェクトEEG感情分類と回帰タスクの両方において優れているように設計されている。
4つの公開データセットの実験により、EmTは脳波の感情分類と回帰タスクの両方のベースラインメソッドよりも高い結果が得られることが示された。
論文 参考訳(メタデータ) (2024-06-26T13:42:11Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - HybridGait: A Benchmark for Spatial-Temporal Cloth-Changing Gait
Recognition with Hybrid Explorations [66.5809637340079]
そこで本研究では,第1世代CCGaitベンチマークを提案する。
我々は3次元メッシュの時間的ダイナミクスと投影された2次元情報の両方を利用する。
私たちのコントリビューションは2つあります: 拡張された空間にわたる現実的な外見の変化をキャプチャする、挑戦的なベンチマークCCGaitを提供しています。
論文 参考訳(メタデータ) (2023-12-30T16:12:13Z) - Transforming Visual Scene Graphs to Image Captions [69.13204024990672]
我々は、Scene Graphs (TSG) をより説明的なキャプションに変換することを提案する。
TSGでは、シーングラフの埋め込みのためのグラフニューラルネットワーク(GNN)の設計にマルチヘッドアテンション(MHA)を適用している。
TSGでは、各専門家はMHAに基づいてグラフ埋め込みを識別し、異なる種類の単語を生成する。
論文 参考訳(メタデータ) (2023-05-03T15:18:37Z) - GN-Transformer: Fusing Sequence and Graph Representation for Improved
Code Summarization [0.0]
融合シーケンスとグラフのモダリティに基づいてエンドツーエンドの学習を行う新しい手法であるGN-Transformerを提案する。
提案手法は,2つのコード要約データセットと3つの自動コード要約メトリクスにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-11-17T02:51:37Z) - Generative Adversarial Imitation Learning for Empathy-based AI [0.0]
GAIL(Generative Adversarial mimicion Learning)は、高次元環境における複雑な振る舞いを模倣する強力な結果をもたらすモデルのないアルゴリズムである。
本稿では,GAILモデルをテキスト生成に利用し,共感に基づく文脈認識型会話型AIを開発する。
論文 参考訳(メタデータ) (2021-05-27T17:37:37Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。