論文の概要: Log2Motion: Biomechanical Motion Synthesis from Touch Logs
- arxiv url: http://arxiv.org/abs/2601.21043v2
- Date: Thu, 05 Feb 2026 09:24:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 14:11:23.794964
- Title: Log2Motion: Biomechanical Motion Synthesis from Touch Logs
- Title(参考訳): Log2Motion: タッチログからのバイオメカニカルモーション合成
- Authors: Michał Patryk Miazga, Hannah Bussmann, Antti Oulasvirta, Patrick Ebel,
- Abstract要約: 生体力学シミュレーションは運動制御過程を照らすことができるが、タッチ操作のためにはまだ開発されていない。
我々の重要な洞察は、生体力学的に妥当な運動列を生成する強化学習駆動筋骨格前方シミュレーションである。
Log2Motionは、モーション、スピード、精度、労力の見積を含む、タッチログからユーザ動作の豊富な合成を生成する。
- 参考スコア(独自算出の注目度): 19.909306581869398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Touch data from mobile devices are collected at scale but reveal little about the interactions that produce them. While biomechanical simulations can illuminate motor control processes, they have not yet been developed for touch interactions. To close this gap, we propose a novel computational problem: synthesizing plausible motion directly from logs. Our key insight is a reinforcement learning-driven musculoskeletal forward simulation that generates biomechanically plausible motion sequences consistent with events recorded in touch logs. We achieve this by integrating a software emulator into a physics simulator, allowing biomechanical models to manipulate real applications in real-time. Log2Motion produces rich syntheses of user movements from touch logs, including estimates of motion, speed, accuracy, and effort. We assess the plausibility of generated movements by comparing against human data from a motion capture study and prior findings, and demonstrate Log2Motion in a large-scale dataset. Biomechanical motion synthesis provides a new way to understand log data, illuminating the ergonomics and motor control underlying touch interactions.
- Abstract(参考訳): モバイルデバイスからのタッチデータは大規模に収集されるが、それらを生成するインタラクションについてはほとんど明らかにされていない。
生体力学シミュレーションは運動制御過程を照らすことができるが、タッチ操作のためにはまだ開発されていない。
このギャップを埋めるために,ログから直接可塑性運動を合成する,新しい計算問題を提案する。
我々の重要な洞察は、生体力学的に妥当な運動列を、タッチログに記録された事象と一致させる強化学習駆動筋骨格前方シミュレーションである。
本研究では,ソフトウェアエミュレータを物理シミュレータに統合し,バイオメカニカルモデルによる実アプリケーションのリアルタイム操作を実現する。
Log2Motionは、モーション、スピード、精度、労力の見積を含む、タッチログからユーザ動作の豊富な合成を生成する。
本研究では、モーションキャプチャー研究および先行研究から得られた人的データと比較し、生成した動きの妥当性を評価し、大規模データセットでLog2Motionを実証する。
バイオメカニカルモーション合成は、ログデータを理解する新しい方法を提供する。
関連論文リスト
- PhysiInter: Integrating Physical Mapping for High-Fidelity Human Interaction Generation [35.563978243352764]
人間のインタラクション生成パイプライン全体に統合された物理マッピングを導入する。
具体的には、物理に基づくシミュレーション環境での運動模倣は、ターゲットの動きを物理的に有効な空間に投影するために使用される。
実験の結果,人間の運動の質は3%~89%向上した。
論文 参考訳(メタデータ) (2025-06-09T06:04:49Z) - Learning Speed-Adaptive Walking Agent Using Imitation Learning with Physics-Informed Simulation [0.0]
生体力学的に現実的な動作を維持しつつ、様々な歩行速度に適応できる骨格型ヒューマノイド剤を開発した。
このフレームワークは、オープンソースのバイオメカニクスデータから生体力学的に妥当な歩行運動を生産する合成データジェネレータと、エージェントの歩行ポリシーを訓練するために逆模倣学習を使用する訓練システムとを組み合わせる。
論文 参考訳(メタデータ) (2024-12-05T07:55:58Z) - Morph: A Motion-free Physics Optimization Framework for Human Motion Generation [28.009524143770076]
現在の運動生成は、物理学的な制約を無視し、物理的に不可解な運動をもたらす。
雑音の多い動きデータを用いて有効な運動物理学を訓練するためのフレームワークである textbfMorph を提案する。
我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端の運動品質を実現する。
論文 参考訳(メタデータ) (2024-11-22T14:09:56Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。