論文の概要: Motion Generation: A Survey of Generative Approaches and Benchmarks
- arxiv url: http://arxiv.org/abs/2507.05419v1
- Date: Mon, 07 Jul 2025 19:04:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.313017
- Title: Motion Generation: A Survey of Generative Approaches and Benchmarks
- Title(参考訳): モーションジェネレーション:生成的アプローチとベンチマーク
- Authors: Aliasghar Khani, Arianna Rampini, Bruno Roy, Larasika Nadela, Noa Kaplan, Evan Atherton, Derek Cheung, Jacky Bibliowicz,
- Abstract要約: 我々は,その基盤となる生成戦略に基づいて,動作生成手法の詳細な分類を行う。
我々の主な焦点は、2023年以降のトップレベルの会場で発行された論文であり、この分野の最新の進歩を反映している。
アーキテクチャの原則、条件付け機構、生成設定を分析し、文献で使用される評価指標とデータセットの詳細な概要をコンパイルする。
- 参考スコア(独自算出の注目度): 1.4254358932994455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion generation, the task of synthesizing realistic motion sequences from various conditioning inputs, has become a central problem in computer vision, computer graphics, and robotics, with applications ranging from animation and virtual agents to human-robot interaction. As the field has rapidly progressed with the introduction of diverse modeling paradigms including GANs, autoencoders, autoregressive models, and diffusion-based techniques, each approach brings its own advantages and limitations. This growing diversity has created a need for a comprehensive and structured review that specifically examines recent developments from the perspective of the generative approach employed. In this survey, we provide an in-depth categorization of motion generation methods based on their underlying generative strategies. Our main focus is on papers published in top-tier venues since 2023, reflecting the most recent advancements in the field. In addition, we analyze architectural principles, conditioning mechanisms, and generation settings, and compile a detailed overview of the evaluation metrics and datasets used across the literature. Our objective is to enable clearer comparisons and identify open challenges, thereby offering a timely and foundational reference for researchers and practitioners navigating the rapidly evolving landscape of motion generation.
- Abstract(参考訳): 様々な条件入力からリアルな動き系列を合成するタスクであるモーション生成は、アニメーションや仮想エージェントから人間とロボットの相互作用に至るまで、コンピュータビジョン、コンピュータグラフィックス、ロボット工学において中心的な問題となっている。
この分野は、GAN、オートエンコーダ、自己回帰モデル、拡散に基づく技術を含む多様なモデリングパラダイムの導入によって急速に進展しているため、それぞれのアプローチには独自の利点と限界がある。
この多様性の増大は、導入されるジェネレーティブアプローチの観点から、最近の発展を特に検討する包括的で構造化されたレビューの必要性を生み出した。
本研究では,その基盤となる生成戦略に基づいて,動作生成手法の詳細な分類を行う。
我々の主な焦点は、2023年以降のトップレベルの会場で発行された論文であり、この分野の最新の進歩を反映している。
さらに、アーキテクチャ原則、条件付け機構、生成設定を分析し、文献全体で使用される評価指標とデータセットの詳細な概要をコンパイルする。
我々の目的は、より明確な比較を可能にし、オープンな課題を特定することであり、これにより、急速に進化する運動生成の風景をナビゲートする研究者や実践者に対して、タイムリーで基礎的な参照を提供することである。
関連論文リスト
- Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control [72.00655365269]
本稿では,協調的軌跡定式化を通じてオブジェクト間ダイナミクスをモデル化する新しいフレームワークであるRoboMasterを紹介する。
オブジェクトを分解する従来の方法とは異なり、我々のコアは、相互作用プロセスを3つのサブステージ(相互作用前、相互作用後、相互作用後)に分解することである。
提案手法は既存の手法よりも優れており,ロボット操作のための軌道制御ビデオ生成における最先端性能を確立している。
論文 参考訳(メタデータ) (2025-06-02T17:57:06Z) - Multimodal Generative AI with Autoregressive LLMs for Human Motion Understanding and Generation: A Way Forward [8.470241117250243]
本稿では,多モード生成人工知能(GenAI)と自己回帰型大規模言語モデル(LLM)を人間の動作理解と生成に利用することに焦点を当てる。
新たな手法、アーキテクチャ、および現実的で汎用的なモーション合成を前進させる可能性についての洞察を提供する。
本研究は,医療,ヒューマノイド,ゲーム,アニメーション,アシスト技術などの応用において,テキスト・トゥ・モーションのGenAIとLLMアーキテクチャの変革の可能性を示すものである。
論文 参考訳(メタデータ) (2025-05-31T11:02:24Z) - Advances in Radiance Field for Dynamic Scene: From Neural Field to Gaussian Field [85.12359852781216]
本研究では,放射場を用いた動的シーン表現に着目した200以上の論文の体系的分析を行った。
我々は,多種多様な方法論的アプローチを統一的な表現的枠組みの下で組織し,永続的な課題の批判的検討と有望な研究方向性を結論づける。
論文 参考訳(メタデータ) (2025-05-15T07:51:08Z) - Text-driven Motion Generation: Overview, Challenges and Directions [5.292618442300405]
テキスト駆動モーション生成は、自然言語から直接人間の動きを生成する、強力で直感的な方法を提供する。
これは、仮想現実、ゲーム、人間とコンピュータのインタラクション、ロボット工学などの分野で特に有用である。
この分野が現在どこにあるのかを把握し、重要な課題や限界に注意を向け、将来の探査に向けた有望な方向性を明らかにすることを目指しています。
論文 参考訳(メタデータ) (2025-05-14T13:33:12Z) - A Comprehensive Taxonomy and Analysis of Talking Head Synthesis: Techniques for Portrait Generation, Driving Mechanisms, and Editing [8.171572460041823]
トーキングヘッド合成は、特定のコンテンツによって駆動される静止画像からポートレートビデオを生成する高度な方法である。
本調査は,3つの重要な領域 – ポートレート生成,駆動機構,編集技術 – に分類し,その技術を体系的にレビューする。
論文 参考訳(メタデータ) (2024-06-15T08:14:59Z) - Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - Sora as an AGI World Model? A Complete Survey on Text-to-Video Generation [30.245348014602577]
本稿では,テキストからの映像生成の進化について論じる。まずMNISTの数値をアニメーション化し,ソラで物理世界をシミュレートする。
Soraが生成するビデオの欠点に関するレビューでは、ビデオ生成の様々な実現可能な側面において、より深い研究を求める声が浮き彫りになっている。
テキスト・ビデオ・ジェネレーションの研究は、まだ初期段階であり、学際的な研究コミュニティからの貢献が必要であると結論付けている。
論文 参考訳(メタデータ) (2024-03-08T07:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。