論文の概要: A Personalized Data-Driven Generative Model of Human Repetitive Motion
- arxiv url: http://arxiv.org/abs/2503.15225v2
- Date: Wed, 15 Oct 2025 16:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 15:32:13.209446
- Title: A Personalized Data-Driven Generative Model of Human Repetitive Motion
- Title(参考訳): パーソナライズされたデータ駆動型人間反復運動生成モデル
- Authors: Angelo Di Porzio, Marco Coraggio,
- Abstract要約: 運動振幅は、個々の運動シグネチャの有効かつ相補的な特徴を与えることを示す。
我々は、長期記憶ニューラルネットワークに基づくデータ駆動型アプローチを提案し、特定の個人の特徴を捉えた独自の動きを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of autonomous virtual avatars (in extended reality) and robots in human group activities -- such as rehabilitation therapy, sports, and manufacturing -- is expected to increase as these technologies become more pervasive. Designing cognitive architectures and control strategies to drive these agents requires realistic models of human motion. Furthermore, recent research has shown that each person exhibits a unique velocity signature, highlighting how individual motor behaviors are both rich in variability and internally consistent. However, existing models only provide simplified descriptions of human motor behavior, hindering the development of effective cognitive architectures. In this work, we first show that motion amplitude provides a valid and complementary characterization of individual motor signatures. Then, we propose a fully data-driven approach, based on long short-term memory neural networks, to generate original motion that captures the unique features of specific individuals. We validate the architecture using real human data from participants performing spontaneous oscillatory motion. Extensive analyses show that state-of-the-art Kuramoto-like models fail to replicate individual motor signatures, whereas our model accurately reproduces the velocity distribution and amplitude envelopes of the individual it was trained on, while remaining distinct from others.
- Abstract(参考訳): 自律型バーチャルアバター(拡張現実)とロボットがリハビリテーション、スポーツ、製造といった人間のグループ活動に配備されることは、これらの技術が普及するにつれて増加すると予想されている。
これらのエージェントを動かすための認知アーキテクチャと制御戦略の設計には、人間の動きの現実的なモデルが必要である。
さらに、近年の研究では、各個人が独自の速度シグネチャを示し、個々の運動行動が変動性に富み、内部的に一貫性があるかを強調している。
しかし、既存のモデルは人間の運動行動の簡易な記述のみを提供しており、効果的な認知アーキテクチャの開発を妨げる。
本研究では、まず、運動振幅が個々のモータシグネチャの有効かつ相補的な特徴を与えることを示す。
そこで本稿では,長期記憶ニューラルネットワークに基づく完全データ駆動型アプローチを提案する。
我々は,自然発振運動を行う参加者の実際の人的データを用いて,建築の検証を行う。
大規模解析の結果,現在最先端の倉本様モデルでは個々のモーターシグネチャを再現できず,トレーニングした個体の速度分布と振幅エンベロープを精度良く再現するのに対し,他のモデルとの違いは認めなかった。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - 3HANDS Dataset: Learning from Humans for Generating Naturalistic Handovers with Supernumerary Robotic Limbs [64.99122701615151]
スーパー数式ロボットアーム(英: Supernumerary Robotics limbs、SRL)は、ユーザーの身体と密に統合されたロボット構造である。
3HANDSは,日常活動を行う参加者と,ヒップマウントSRLを自然な方法で実施する参加者との間の,オブジェクトハンドオーバインタラクションの新たなデータセットである。
本稿では,自然なハンドオーバ軌跡を生成する3つのモデル,適切なハンドオーバエンドポイントを決定する1つのモデル,ハンドオーバ開始のタイミングを予測する3つのモデルを提案する。
論文 参考訳(メタデータ) (2025-03-06T17:23:55Z) - Shifting Attention to You: Personalized Brain-Inspired AI Models [3.0128071072792366]
人間の行動洞察とミリ秒スケールのニューラルネットワークを微調整CLIPベースモデルに統合することで、修正されていないCLIPベースラインと比較して、行動性能が2倍になることを示す。
我々の研究は、適応型AIシステムを設計するための、新しい解釈可能なフレームワークを確立し、神経科学、パーソナライズドメディカル、人間とコンピュータの相互作用に幅広い意味を持つ。
論文 参考訳(メタデータ) (2025-02-07T04:55:31Z) - Data driven discovery of human mobility models [20.402260586108792]
本研究では,人間の移動データから解釈可能なモデルを自動的に発見するための体系的アプローチを提案する。
提案手法では距離減衰効果や古典重力モデルなど,よく知られた式がいくつか見出される。
モデル表現の複雑さに対する制約を緩和することにより、人間の移動の鍵となる変数がどのようにモデルに徐々に組み込まれていくかを示す。
論文 参考訳(メタデータ) (2025-01-10T03:21:40Z) - Human-Humanoid Robots Cross-Embodiment Behavior-Skill Transfer Using Decomposed Adversarial Learning from Demonstration [9.42179962375058]
本稿では,デジタル人間モデルを共通プロトタイプとして使用することにより,データのボトルネックを低減するための転送可能なフレームワークを提案する。
このモデルは、人間による実演から、敵対的な模倣を通して行動プリミティブを学習し、複雑なロボット構造を機能的な構成要素に分解する。
本フレームワークは,多種多様な構成のヒューマノイドロボット5体を用いて検証した。
論文 参考訳(メタデータ) (2024-12-19T18:41:45Z) - Learning Low-Dimensional Strain Models of Soft Robots by Looking at the Evolution of Their Shape with Application to Model-Based Control [2.058941610795796]
本稿では,低次元物理モデル学習のための合理化手法を提案する。
各種平面ソフトマニピュレータを用いたシミュレーションにより,本手法の有効性を検証した。
物理的に互換性のあるモデルを生成する方法のおかげで、学習したモデルはモデルベースの制御ポリシーと簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2024-10-31T18:37:22Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis [0.0]
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
論文 参考訳(メタデータ) (2023-04-03T10:29:24Z) - Conditional Generative Models for Simulation of EMG During Naturalistic
Movements [45.698312905115955]
本稿では、運動単位活性化電位波形を生成するために、逆向きに訓練された条件付き生成ニューラルネットワークを提案する。
本研究では,より少ない数の数値モデルの出力を高い精度で予測的に補間できることを実証する。
論文 参考訳(メタデータ) (2022-11-03T14:49:02Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。