論文の概要: SketchPlay: Intuitive Creation of Physically Realistic VR Content with Gesture-Driven Sketching
- arxiv url: http://arxiv.org/abs/2512.22016v1
- Date: Fri, 26 Dec 2025 12:32:39 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:57:36.010743
- Title: SketchPlay: Intuitive Creation of Physically Realistic VR Content with Gesture-Driven Sketching
- Title(参考訳): SketchPlay: ジェスチャーによるスケッチによるリアルなVRコンテンツの直感的創造
- Authors: Xiangwen Zhang, Xiaowei Dai, Runnan Chen, Xiaoming Chen, Zeke Zexi Hu,
- Abstract要約: SketchPlayは、人間が描いたスケッチやジェスチャーをダイナミックでリアルなシーンに変換する、新しいVRインタラクションフレームワークだ。
これらの補完的な入力形式を組み合わせることで、SketchPlayはユーザーが作成したコンテンツの構造とダイナミクスの両方をキャプチャする。
- 参考スコア(独自算出の注目度): 12.374043359550775
- License:
- Abstract: Creating physically realistic content in VR often requires complex modeling tools or predefined 3D models, textures, and animations, which present significant barriers for non-expert users. In this paper, we propose SketchPlay, a novel VR interaction framework that transforms humans' air-drawn sketches and gestures into dynamic, physically realistic scenes, making content creation intuitive and playful like drawing. Specifically, sketches capture the structure and spatial arrangement of objects and scenes, while gestures convey physical cues such as velocity, direction, and force that define movement and behavior. By combining these complementary forms of input, SketchPlay captures both the structure and dynamics of user-created content, enabling the generation of a wide range of complex physical phenomena, such as rigid body motion, elastic deformation, and cloth dynamics. Experimental results demonstrate that, compared to traditional text-driven methods, SketchPlay offers significant advantages in expressiveness, and user experience. By providing an intuitive and engaging creation process, SketchPlay lowers the entry barrier for non-expert users and shows strong potential for applications in education, art, and immersive storytelling.
- Abstract(参考訳): VRで物理的に現実的なコンテンツを作成するには、複雑なモデリングツールや事前に定義された3Dモデル、テクスチャ、アニメーションが必要である。
そこで本研究では,人間の空気絵のスケッチやジェスチャーを動的にリアルなシーンに変換するVRインタラクションフレームワークであるSketchPlayを提案する。
具体的には、スケッチは物体やシーンの構造と空間的配置を捉え、ジェスチャーは動きや振る舞いを定義する速度、方向、力などの物理的な手がかりを伝達する。
これらの補完的な入力形式を組み合わせることで、SketchPlayはユーザー生成コンテンツの構造とダイナミクスの両方をキャプチャし、剛体運動、弾性変形、布のダイナミクスなど、幅広い複雑な物理現象を生成できる。
実験の結果,従来のテキスト駆動手法と比較して,SketchPlayは表現性やユーザエクスペリエンスにおいて大きな利点があることがわかった。
直感的で魅力的な作成プロセスを提供することで、SketchPlayは専門家でないユーザの参入障壁を低くし、教育、アート、没入型ストーリーテリングのアプリケーションに強い可能性を示す。
関連論文リスト
- X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - Dynamic Typography: Bringing Text to Life via Video Diffusion Prior [73.72522617586593]
動的タイポグラフィー(Dynamic Typography)と呼ばれる自動テキストアニメーション方式を提案する。
意味的意味を伝えるために文字を変形させ、ユーザプロンプトに基づいて活気ある動きを注入する。
本手法は,ベクトルグラフィックス表現とエンドツーエンド最適化に基づくフレームワークを利用する。
論文 参考訳(メタデータ) (2024-04-17T17:59:55Z) - VR-GS: A Physical Dynamics-Aware Interactive Gaussian Splatting System in Virtual Reality [39.53150683721031]
提案するVR-GSシステムは,人間中心の3Dコンテンツインタラクションにおける飛躍的な進歩を示す。
私たちの仮想現実システムのコンポーネントは、高い効率と有効性のために設計されています。
論文 参考訳(メタデータ) (2024-01-30T01:28:36Z) - Learning-based pose edition for efficient and interactive design [55.41644538483948]
コンピュータ支援アニメーションアーティストでは、キャラクターのキーポーズは骨格を操作することで定義されている。
キャラクターのポーズは多くの不明確な制約を尊重しなければならないので、結果のリアリズムはアニメーターのスキルと知識に大きく依存する。
ポーズデザインのための効率的なツールを記述し、ユーザーが直感的にポーズを操作してキャラクターアニメーションを作成することができる。
論文 参考訳(メタデータ) (2021-07-01T12:15:02Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。