論文の概要: From Actions to Kinesics: Extracting Human Psychological States through Bodily Movements
- arxiv url: http://arxiv.org/abs/2510.04844v1
- Date: Mon, 06 Oct 2025 14:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.899675
- Title: From Actions to Kinesics: Extracting Human Psychological States through Bodily Movements
- Title(参考訳): 行動からキネシクスへ:身体運動による人間の心理状態の抽出
- Authors: Cheyu Lin, Katherine A. Flanigan,
- Abstract要約: 本稿では3次元骨格関節データから人間の活動のコミュニケーション機能を推定するキネシクス認識フレームワークを提案する。
Dyadic User EngagemenT データセットで得られた結果は、この手法により、スケーラブルで、正確で、人間中心の行動モデリングが可能になることを実証している。
- 参考スコア(独自算出の注目度): 1.2676356746752893
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding the dynamic relationship between humans and the built environment is a key challenge in disciplines ranging from environmental psychology to reinforcement learning (RL). A central obstacle in modeling these interactions is the inability to capture human psychological states in a way that is both generalizable and privacy preserving. Traditional methods rely on theoretical models or questionnaires, which are limited in scope, static, and labor intensive. We present a kinesics recognition framework that infers the communicative functions of human activity -- known as kinesics -- directly from 3D skeleton joint data. Combining a spatial-temporal graph convolutional network (ST-GCN) with a convolutional neural network (CNN), the framework leverages transfer learning to bypass the need for manually defined mappings between physical actions and psychological categories. The approach preserves user anonymity while uncovering latent structures in bodily movements that reflect cognitive and emotional states. Our results on the Dyadic User EngagemenT (DUET) dataset demonstrate that this method enables scalable, accurate, and human-centered modeling of behavior, offering a new pathway for enhancing RL-driven simulations of human-environment interaction.
- Abstract(参考訳): 環境心理学から強化学習(RL)まで,人間と構築環境のダイナミックな関係を理解することは重要な課題である。
これらの相互作用をモデル化する際の中心的な障害は、一般的なものとプライバシ保護の両方の方法で人間の心理的状態をキャプチャできないことである。
従来の手法は、スコープ、静的、労働集約性に制限のある理論モデルやアンケートに依存している。
本研究では,3次元骨格関節データから直接,人間の活動のコミュニケーション機能(キネシクスとして知られる)を推定するキネシクス認識フレームワークを提案する。
空間時間グラフ畳み込みネットワーク(ST-GCN)と畳み込みニューラルネットワーク(CNN)を組み合わせることで、物理的行動と心理的カテゴリ間の手動で定義されたマッピングの必要性を回避する。
このアプローチは、認知状態と感情状態を反映した身体運動の潜在構造を明らかにしながら、ユーザの匿名性を保っている。
Dyadic User EngagemenT (DUET) データセットを用いて、この手法により、スケーラブルで、正確で、人間中心の行動モデリングが可能であり、人間と環境相互作用のRL駆動シミュレーションを強化するための新しい経路を提供する。
関連論文リスト
- BrainATCL: Adaptive Temporal Brain Connectivity Learning for Functional Link Prediction and Age Estimation [0.33748750222488655]
本稿では、適応的時間的脳接続学習のための非教師なしノンパラメトリックフレームワークBrainATCLを提案する。
提案手法は,新たに追加されたエッジのレートに基づいて,スナップショット毎のルックバックウィンドウを動的に調整する。
グラフシーケンスはGINE-Mamba2バックボーンを用いて符号化され、静止状態fMRIデータにおける動的機能接続の時空間表現を学習する。
論文 参考訳(メタデータ) (2025-08-09T21:18:25Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - DSAM: A Deep Learning Framework for Analyzing Temporal and Spatial Dynamics in Brain Networks [4.041732967881764]
ほとんどのrs-fMRI研究は、関心のある脳領域にまたがる単一の静的機能接続行列を計算している。
これらのアプローチは、脳のダイナミクスを単純化し、目の前のゴールを適切に考慮していないリスクがある。
本稿では,時系列から直接ゴール固有の機能的接続行列を学習する,解釈可能な新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-19T23:35:06Z) - CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [29.3564427724612]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Persistent-Transient Duality: A Multi-mechanism Approach for Modeling
Human-Object Interaction [58.67761673662716]
人間は高度に適応可能で、異なるタスク、状況、状況を扱うために異なるモードを素早く切り替える。
人間と物体の相互作用(HOI)において、これらのモードは、(1)活動全体に対する大規模な一貫した計画、(2)タイムラインに沿って開始・終了する小規模の子どもの対話的行動の2つのメカニズムに起因していると考えられる。
本研究は、人間の動作を協調的に制御する2つの同時メカニズムをモデル化することを提案する。
論文 参考訳(メタデータ) (2023-07-24T12:21:33Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Human Action Recognition and Assessment via Deep Neural Network
Self-Organization [0.0]
本章では,深度マップとRGB画像からの行動の学習と認識のための階層モデルを紹介する。
これらのモデルの特徴は、非定常分布に迅速に適応する自己組織化ネットワークの利用である。
論文 参考訳(メタデータ) (2020-01-04T15:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。