論文の概要: MagicFight: Personalized Martial Arts Combat Video Generation
- arxiv url: http://arxiv.org/abs/2601.02107v1
- Date: Mon, 05 Jan 2026 13:34:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.152906
- Title: MagicFight: Personalized Martial Arts Combat Video Generation
- Title(参考訳): MagicFight:パーソナライズされた武道コンバットビデオジェネレーション
- Authors: Jiancheng Huang, Mingfu Yan, Songyan Chen, Yi Huang, Shifeng Chen,
- Abstract要約: 本稿では,新たな課題であるPersonalized Martial Arts Combat Video Generationを紹介する。
私たちのアプローチであるMagicFightは、これらのハードルを克服するために特別に作られています。
ゲーム物理エンジンのUnityを用いて,bespokeデータセットを生成する。
- 参考スコア(独自算出の注目度): 18.043661495412962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amid the surge in generic text-to-video generation, the field of personalized human video generation has witnessed notable advancements, primarily concentrated on single-person scenarios. However, to our knowledge, the domain of two-person interactions, particularly in the context of martial arts combat, remains uncharted. We identify a significant gap: existing models for single-person dancing generation prove insufficient for capturing the subtleties and complexities of two engaged fighters, resulting in challenges such as identity confusion, anomalous limbs, and action mismatches. To address this, we introduce a pioneering new task, Personalized Martial Arts Combat Video Generation. Our approach, MagicFight, is specifically crafted to overcome these hurdles. Given this pioneering task, we face a lack of appropriate datasets. Thus, we generate a bespoke dataset using the game physics engine Unity, meticulously crafting a multitude of 3D characters, martial arts moves, and scenes designed to represent the diversity of combat. MagicFight refines and adapts existing models and strategies to generate high-fidelity two-person combat videos that maintain individual identities and ensure seamless, coherent action sequences, thereby laying the groundwork for future innovations in the realm of interactive video content creation. Website: https://MingfuYAN.github.io/MagicFight/ Dataset: https://huggingface.co/datasets/MingfuYAN/KungFu-Fiesta
- Abstract(参考訳): 一般的なテキスト・ビデオ生成が急増する中、パーソナライズされた人間のビデオ生成の分野は目立った進歩を見せており、主に一人称のシナリオに集中している。
しかし、我々の知る限りでは、2人の相互作用の領域は、特に武術の文脈では、未知のままである。
個人舞踊生成のための既存のモデルは、2人の戦闘員の微妙さと複雑さを捉えるには不十分であることが証明され、その結果、アイデンティティの混乱、異常な手足、アクションミスマッチといった課題が生じる。
そこで我々は,新たな課題であるPersonalized Martial Arts Combat Video Generationを導入する。
私たちのアプローチであるMagicFightは、これらのハードルを克服するために特別に作られています。
この先駆的なタスクを考えると、適切なデータセットが不足しています。
そこで,ゲーム物理エンジンのUnityを用いて,多種多様な3Dキャラクター,武道の動き,戦闘の多様性を表すシーンを巧みに作成する。
MagicFightは既存のモデルと戦略を改良し、個々のアイデンティティを維持し、シームレスで一貫性のあるアクションシーケンスを確実にする高忠実な2人戦闘ビデオを生成する。
Webサイト: https://MingfuYAN.github.io/MagicFight/ Dataset: https://huggingface.co/datasets/MingfuYAN/KungFu-Fiesta
関連論文リスト
- Multi-identity Human Image Animation with Structural Video Diffusion [73.38728096088732]
emph Structure Video Diffusionは、現実的なマルチヒューマンビデオを生成するための新しいフレームワークである。
当社のアプローチでは、個人間で一貫した外観を維持するために、アイデンティティ固有の埋め込みを導入している。
さまざまなマルチヒューマンとオブジェクトのインタラクションシナリオを特徴とする25Kの新しいビデオで、既存のヒューマンビデオデータセットを拡張します。
論文 参考訳(メタデータ) (2025-04-05T10:03:49Z) - AnchorCrafter: Animate Cyber-Anchors Selling Your Products via Human-Object Interacting Video Generation [40.81246588724407]
アンカースタイルの製品プロモーションビデオは、eコマース、広告、消費者エンゲージメントにおいて有望な機会を提供する。
AnchorCrafterは、ターゲットの人間とカスタマイズされたオブジェクトを特徴とする2Dビデオを生成するために設計された、新しい拡散ベースのシステムである。
本稿では,物体の外観認識を任意の視点から拡張するHOI-appearance Recognitionと,複雑な人間と物体の相互作用を可能にするHOI-motion Injectionという2つの重要なイノベーションを提案する。
論文 参考訳(メタデータ) (2024-11-26T12:42:13Z) - Learning an Actionable Discrete Diffusion Policy via Large-Scale Actionless Video Pre-Training [69.54948297520612]
ジェネラリストの具体化エージェントを学ぶことは、主にアクションラベル付きロボットデータセットの不足に起因して、課題を提起する。
これらの課題に対処するための新しい枠組みを導入し、人間のビデオにおける生成前トレーニングと、少数のアクションラベル付きロボットビデオのポリシー微調整を組み合わせるために、統一された離散拡散を利用する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。