論文の概要: Generative AI-Driven High-Fidelity Human Motion Simulation
- arxiv url: http://arxiv.org/abs/2507.14097v1
- Date: Fri, 18 Jul 2025 17:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.376292
- Title: Generative AI-Driven High-Fidelity Human Motion Simulation
- Title(参考訳): ジェネレーティブAI駆動高忠実動作シミュレーション
- Authors: Hari Iyer, Neel Macwan, Atharva Jitendra Hude, Heejin Jeong, Shenghan Guo,
- Abstract要約: Generative-AI-Enabled HMS (G-AI-HMS)は、テキスト・トゥ・テキストとテキスト・トゥ・モーション・モデルを統合し、物理タスクのシミュレーション品質を向上させる。
姿勢推定アルゴリズムをリアルタイムビデオに適用し、関節のランドマークを抽出し、運動類似度指標を用いてAIによって強化されたシーケンスと比較する。
- 参考スコア(独自算出の注目度): 2.565510978670772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion simulation (HMS) supports cost-effective evaluation of worker behavior, safety, and productivity in industrial tasks. However, existing methods often suffer from low motion fidelity. This study introduces Generative-AI-Enabled HMS (G-AI-HMS), which integrates text-to-text and text-to-motion models to enhance simulation quality for physical tasks. G-AI-HMS tackles two key challenges: (1) translating task descriptions into motion-aware language using Large Language Models aligned with MotionGPT's training vocabulary, and (2) validating AI-enhanced motions against real human movements using computer vision. Posture estimation algorithms are applied to real-time videos to extract joint landmarks, and motion similarity metrics are used to compare them with AI-enhanced sequences. In a case study involving eight tasks, the AI-enhanced motions showed lower error than human created descriptions in most scenarios, performing better in six tasks based on spatial accuracy, four tasks based on alignment after pose normalization, and seven tasks based on overall temporal similarity. Statistical analysis showed that AI-enhanced prompts significantly (p $<$ 0.0001) reduced joint error and temporal misalignment while retaining comparable posture accuracy.
- Abstract(参考訳): ヒューマン・モーション・シミュレーション(HMS)は、産業作業における労働者の行動、安全、生産性の費用対効果評価を支援する。
しかし、既存の手法は、しばしば低い動きの忠実さに悩まされる。
本研究では,テキスト・トゥ・テキストとテキスト・トゥ・モーション・モデルを統合した生成型AI-Enabled HMS (G-AI-HMS)を導入し,物理タスクのシミュレーション品質を向上させる。
G-AI-HMSは,(1)MotionGPTのトレーニング語彙に沿った大規模言語モデルを用いてタスク記述を動作認識言語に翻訳すること,(2)コンピュータビジョンを用いて実際の人間の動作に対するAI強化動作を検証すること,の2つの課題に取り組む。
姿勢推定アルゴリズムをリアルタイムビデオに適用し、関節のランドマークを抽出し、運動類似度指標を用いてAIによって強化されたシーケンスと比較する。
8つのタスクを含むケーススタディにおいて、AIによって強化された動作は、ほとんどのシナリオにおいて、人間が作成した記述よりもエラーが少ないことを示し、空間的正確性に基づく6つのタスク、ポーズの正規化後のアライメントに基づく4つのタスク、全体時間的類似性に基づく7つのタスクで改善された。
統計的分析では、AIが強化したプロンプト(p$<0001)は、同等の姿勢精度を維持しながら、関節の誤りと時間的ずれを著しく減らした。
関連論文リスト
- SSSUMO: Real-Time Semi-Supervised Submovement Decomposition [0.6499759302108926]
運動分析は、運動制御に関する貴重な洞察を提供する。
既存の手法は、復元精度、計算コスト、検証に苦慮している。
半教師付き学習フレームワークを用いて,これらの課題に対処する。
論文 参考訳(メタデータ) (2025-07-08T21:26:25Z) - Real-Time Inverse Kinematics for Generating Multi-Constrained Movements of Virtual Human Characters [0.0]
本稿では,現実的な人間のような運動生成に特化して設計された,新しいリアルタイム逆キネマティクス(IK)解法を提案する。
本手法は,前方および逆運動学を微分可能な演算として扱うことにより,誤差蓄積や複雑な関節限界といった共通問題に効果的に対処する。
その結果,IKソルバは高速収束,反復時間あたりの計算オーバーヘッドの最小化,既存手法と比較して成功率の向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-07-01T14:26:30Z) - UniHM: Universal Human Motion Generation with Object Interactions in Indoor Scenes [26.71077287710599]
シーン認識型人間の動作に拡散に基づく生成を利用する統一運動言語モデルUniHMを提案する。
UniHMは、複雑な3DシーンでText-to-MotionとText-to-Human-Object Interaction (HOI)の両方をサポートする最初のフレームワークである。
提案手法では, 動作リアリズムを改善するために, 連続した6DoF運動と離散的な局所運動トークンを融合する混合運動表現, 従来のVQ-VAEを上回り, 再現精度と生成性能を両立させる新規なLook-Up-Free Quantization VAE, 強化されたバージョンの3つの重要なコントリビューションを導入している。
論文 参考訳(メタデータ) (2025-05-19T07:02:12Z) - CASIM: Composite Aware Semantic Injection for Text to Motion Generation [15.53049009014166]
テキストとモーショントークンの動的対応を学習する複合認識型セマンティックインジェクション機構を提案する。
HumanML3DとKITベンチマークの実験では、CASIMは動きの質、テキスト・モーションアライメント、検索スコアを一貫して改善している。
論文 参考訳(メタデータ) (2025-02-04T07:22:07Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - IM-IAD: Industrial Image Anomaly Detection Benchmark in Manufacturing [88.35145788575348]
画像異常検出(英: Image Anomaly Detection、IAD)は、産業用コンピュータビジョンの課題である。
統一IMベンチマークの欠如は、現実世界のアプリケーションにおけるIADメソッドの開発と利用を妨げる。
7つの主要なデータセットに19のアルゴリズムを含む包括的画像異常検出ベンチマーク(IM-IAD)を構築した。
論文 参考訳(メタデータ) (2023-01-31T01:24:45Z) - BEHAVIOR in Habitat 2.0: Simulator-Independent Logical Task Description
for Benchmarking Embodied AI Agents [31.499374840833124]
高速なシミュレーション速度の恩恵を受けるため、Habitat 2.0にBEHAVIORアクティビティのサブセットを組み込む。
ベンチマークがAIの分野で果たした触媒効果に触発されて、コミュニティはエンボディされたAIのための新しいベンチマークを探している。
論文 参考訳(メタデータ) (2022-06-13T21:37:31Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。