論文の概要: VirtualFencer: Generating Fencing Bouts based on Strategies Extracted from In-the-Wild Videos
- arxiv url: http://arxiv.org/abs/2507.00261v1
- Date: Mon, 30 Jun 2025 20:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.850624
- Title: VirtualFencer: Generating Fencing Bouts based on Strategies Extracted from In-the-Wild Videos
- Title(参考訳): VirtualFencer: アプリ内ビデオから抽出した戦略に基づくフェンシングシュートの生成
- Authors: Zhiyin Lin, Purvi Goel, Joy Yun, C. Karen Liu, Joao Pedro Araujo,
- Abstract要約: 我々は,3Dフェンシング動作と3D動画からの戦略を,監督なしで抽出できるシステムであるVirtualFencerを提案する。
筆者らは,本システムにおいて,(i)自身に対するフェンス(self-play),(ii)オンラインビデオからの実際の剣士の動きに対するフェンス(iii)プロの剣士に対して対話的にフェンスを張ることにより,汎用性を実証した。
- 参考スコア(独自算出の注目度): 11.461079926772374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fencing is a sport where athletes engage in diverse yet strategically logical motions. While most motions fall into a few high-level actions (e.g. step, lunge, parry), the execution can vary widely-fast vs. slow, large vs. small, offensive vs. defensive. Moreover, a fencer's actions are informed by a strategy that often comes in response to the opponent's behavior. This combination of motion diversity with underlying two-player strategy motivates the application of data-driven modeling to fencing. We present VirtualFencer, a system capable of extracting 3D fencing motion and strategy from in-the-wild video without supervision, and then using that extracted knowledge to generate realistic fencing behavior. We demonstrate the versatile capabilities of our system by having it (i) fence against itself (self-play), (ii) fence against a real fencer's motion from online video, and (iii) fence interactively against a professional fencer.
- Abstract(参考訳): フェンシング(Fencing)は、アスリートが多様だが戦略的に論理的な運動を行うスポーツである。
ほとんどの動作はいくつかのハイレベルなアクション(例えば、歩数、肺、パリー)に該当するが、実行は広く速い対、遅い対、大きな対、小さな対、攻撃的対、防御的対、など、様々である。
さらに、相手の行動に反応することが多い戦略によって、フェンスの動作が通知される。
この動きの多様性と基礎となる2人のプレイヤー戦略の組み合わせは、フェンシングへのデータ駆動モデリングの適用を動機付けている。
我々は,3Dフェンシング動作と3Dフェンシング戦略を,監督なしに映像から抽出できるシステムであるVirtualFencerを提案し,その抽出した知識を用いて現実的なフェンシング行動を生成する。
我々は、それを持つことで、システムの万能性を実証する。
(i)自己に対するフェンス(セルフプレイ)
(二)オンラインビデオからの本物の剣士の動きに対するフェンス
(三)プロの剣士と対話的にフェンス。
関連論文リスト
- Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - CBIL: Collective Behavior Imitation Learning for Fish from Real Videos [58.81930297206828]
魚の学習行動を直接ビデオから学習するためのスケーラブルなアプローチCBIL(Collective Behavior Imitation Learning)を提案する。
MVAEは2次元の観察を、模倣学習段階に従うためにコンパクトで表現力のある暗黙の状態に効果的にマッピングする。
CBILは、学習された集合的な動きの前の様々なアニメーションタスクに使用することができる。
論文 参考訳(メタデータ) (2025-03-31T21:15:00Z) - FACTS: Fine-Grained Action Classification for Tactical Sports [4.810476621219244]
フェンシングやボクシングのような速いペースで密着したスポーツにおけるきめ細かいアクションの分類は、固有の課題である。
我々は、生のビデオデータを直接処理する、きめ細かいアクション認識のための新しいアプローチであるFACTSを紹介する。
本研究は, トレーニング, パフォーマンス分析, スペクタエンゲージメントを向上し, 戦術スポーツにおける行動分類のための新しいベンチマークを設定した。
論文 参考訳(メタデータ) (2024-12-21T03:00:25Z) - Strategy and Skill Learning for Physics-based Table Tennis Animation [8.51262627906337]
本稿では,物理に基づく卓球アニメーションのための戦略とスキル学習手法を提案する。
本手法は,複雑なタスクを実行するために必要な運動能力を完全に活用できないモード崩壊の問題に対処する。
論文 参考訳(メタデータ) (2024-07-23T06:31:13Z) - Robot Parkour Learning [70.56172796132368]
Parkourは、さまざまな障害物を素早く克服するロボットを必要とする、足で動くロボットにとって、大きな挑戦だ。
我々は,パープルスキルを生成するために,直接コロケーションにインスパイアされた強化学習手法を開発した。
我々は、これらの技術を単一の視覚に基づくパーサーポリシーに抽出し、エゴセントリックな深度カメラを用いて四足歩行ロボットに転送する。
論文 参考訳(メタデータ) (2023-09-11T17:59:17Z) - Inverse Reinforcement Learning for Strategy Identification [2.6572330982240935]
敵対的環境では、一方が相手の戦略を特定することで有利になる。
本稿では、逆強化学習(IRL)を用いて、敵環境における戦略を特定することを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:22:52Z) - SportsCap: Monocular 3D Human Motion Capture and Fine-grained
Understanding in Challenging Sports Videos [40.19723456533343]
SportsCap - 3Dの人間の動きを同時に捉え、モノラルな挑戦的なスポーツビデオ入力からきめ細かなアクションを理解するための最初のアプローチを提案する。
本手法は,組込み空間に先立って意味的かつ時間的構造を持つサブモーションを,モーションキャプチャと理解に活用する。
このようなハイブリッドな動き情報に基づいて,マルチストリーム空間時空間グラフ畳み込みネットワーク(ST-GCN)を導入し,詳細なセマンティックアクション特性を予測する。
論文 参考訳(メタデータ) (2021-04-23T07:52:03Z) - L2E: Learning to Exploit Your Opponent [66.66334543946672]
本稿では,暗黙的対向モデリングのための新しい学習フレームワークを提案する。
L2Eは、トレーニング中に異なる相手との対話によって、相手を悪用する能力を取得する。
本稿では, 対戦相手を自動的に生成する新しい対戦相手戦略生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-18T14:27:59Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。