論文の概要: Recovering Dynamic 3D Sketches from Videos
- arxiv url: http://arxiv.org/abs/2503.20321v2
- Date: Thu, 27 Mar 2025 06:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:59.561678
- Title: Recovering Dynamic 3D Sketches from Videos
- Title(参考訳): ビデオから動的3Dスケッチを復元する
- Authors: Jaeah Lee, Changwoon Choi, Young Min Kim, Jaesik Park,
- Abstract要約: Liv3Strokeは、変形可能な3Dストロークで動作中のオブジェクトを抽象化する新しいアプローチである。
まず,映像フレームから3Dポイント・クラウド・モーション・ガイダンスを意味的特徴を用いて抽出する。
提案手法は, 自然な3次元表現の集合として本質的な運動特徴を抽象化する曲線の集合を変形する。
- 参考スコア(独自算出の注目度): 30.87733869892925
- License:
- Abstract: Understanding 3D motion from videos presents inherent challenges due to the diverse types of movement, ranging from rigid and deformable objects to articulated structures. To overcome this, we propose Liv3Stroke, a novel approach for abstracting objects in motion with deformable 3D strokes. The detailed movements of an object may be represented by unstructured motion vectors or a set of motion primitives using a pre-defined articulation from a template model. Just as a free-hand sketch can intuitively visualize scenes or intentions with a sparse set of lines, we utilize a set of parametric 3D curves to capture a set of spatially smooth motion elements for general objects with unknown structures. We first extract noisy, 3D point cloud motion guidance from video frames using semantic features, and our approach deforms a set of curves to abstract essential motion features as a set of explicit 3D representations. Such abstraction enables an understanding of prominent components of motions while maintaining robustness to environmental factors. Our approach allows direct analysis of 3D object movements from video, tackling the uncertainty that typically occurs when translating real-world motion into recorded footage. The project page is accessible via: https://jaeah.me/liv3stroke_web
- Abstract(参考訳): ビデオから3Dの動きを理解することは、剛体や変形可能な物体から調音構造に至るまで、様々なタイプの動きによる固有の課題を示す。
この問題を解決するために,変形可能な3次元ストロークで物体を抽象化する新しい手法であるLiv3Strokeを提案する。
オブジェクトの詳細な動きは、テンプレートモデルから事前に定義された記述を用いて、非構造化のモーションベクトルまたは一連のモーションプリミティブで表現することができる。
自由手スケッチは,平らな線でシーンや意図を直感的に視覚化するのと同じように,パラメトリックな3次元曲線の集合を用いて,未知の構造を持つ一般的な物体に対する空間的に滑らかな運動要素の集合をキャプチャする。
提案手法は,まず,意味的特徴を用いた映像フレームからノイズ,3Dポイント・クラウド・モーション・ガイダンスを抽出し,本質的な動作特徴を明示的な3D表現の集合として抽象化するための曲線の集合を変形する。
このような抽象化により、環境要因に対する堅牢性を維持しながら、運動の顕著な構成要素を理解することができる。
本手法では,映像からの3次元物体の動きを直接解析し,実世界の動きを記録映像に変換する際に発生する不確実性に対処する。
プロジェクトページは、https://jaeah.me/liv3stroke_webからアクセスできます。
関連論文リスト
- Articulate That Object Part (ATOP): 3D Part Articulation via Text and Motion Personalization [9.231848716070257]
ATOP(Articulate That Object Part)は、静的な3Dオブジェクトを明瞭化するためのモーションパーソナライゼーションに基づく、新しい数ショット方式である。
提案手法は,現実的な動画を生成し,より正確で一般化可能な3次元動作パラメータを予測できることを示す。
論文 参考訳(メタデータ) (2025-02-11T05:47:16Z) - Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - CAMM: Building Category-Agnostic and Animatable 3D Models from Monocular
Videos [3.356334042188362]
そこで本研究では,任意の対象に対してアニマタブルなキネマティックチェインを学習する手法を提案する。
本手法は,多種多様な対象カテゴリーにおける最先端の3次元表面再構成法と同等である。
論文 参考訳(メタデータ) (2023-04-14T06:07:54Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - Video Autoencoder: self-supervised disentanglement of static 3D
structure and motion [60.58836145375273]
ビデオから3次元構造とカメラポーズの遠心分離表現を学習するために,ビデオオートエンコーダを提案する。
この表現は、新しいビュー合成、カメラポーズ推定、動きの追従によるビデオ生成など、様々なタスクに適用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。