論文の概要: sim2art: Accurate Articulated Object Modeling from a Single Video using Synthetic Training Data Only
- arxiv url: http://arxiv.org/abs/2512.07698v1
- Date: Mon, 08 Dec 2025 16:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.964915
- Title: sim2art: Accurate Articulated Object Modeling from a Single Video using Synthetic Training Data Only
- Title(参考訳): sim2art: 合成トレーニングデータのみを用いた単一ビデオからの正確なArticulated Object Modeling
- Authors: Arslan Artykov, Corentin Sautier, Vincent Lepetit,
- Abstract要約: 本稿では,自由移動カメラで撮影した単眼ビデオから,関節部分のセグメンテーションと関節パラメータを共同で予測する最初のデータ駆動方式を提案する。
提案手法は,実世界のオブジェクトへの強力な一般化を実証し,拡張性および実用的なオブジェクト理解ソリューションを提供する。
提案手法は, カジュアルに記録された映像を直接操作し, 動的環境におけるリアルタイムなアプリケーションに適合する。
- 参考スコア(独自算出の注目度): 20.99905717289565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding articulated objects is a fundamental challenge in robotics and digital twin creation. To effectively model such objects, it is essential to recover both part segmentation and the underlying joint parameters. Despite the importance of this task, previous work has largely focused on setups like multi-view systems, object scanning, or static cameras. In this paper, we present the first data-driven approach that jointly predicts part segmentation and joint parameters from monocular video captured with a freely moving camera. Trained solely on synthetic data, our method demonstrates strong generalization to real-world objects, offering a scalable and practical solution for articulated object understanding. Our approach operates directly on casually recorded video, making it suitable for real-time applications in dynamic environments. Project webpage: https://aartykov.github.io/sim2art/
- Abstract(参考訳): ロボット工学とデジタル双生児の創造における基本的な課題は、明瞭な物体を理解することである。
このようなオブジェクトを効果的にモデル化するには、部分分割と基礎となる関節パラメータの両方を復元することが不可欠である。
このタスクの重要性にもかかわらず、これまでの作業は、マルチビューシステム、オブジェクトスキャン、静的カメラなどのセットアップに重点を置いてきた。
本稿では,自由移動カメラで撮影したモノクロ映像から,部分分割と関節パラメータを共同で予測する最初のデータ駆動方式を提案する。
本手法は, 合成データのみを基礎として, 実世界のオブジェクトへの強力な一般化を実証し, 音声によるオブジェクト理解のためのスケーラブルで実用的なソリューションを提供する。
提案手法は, カジュアルに記録された映像を直接操作し, 動的環境におけるリアルタイムなアプリケーションに適合する。
プロジェクトWebページ: https://aartykov.github.io/sim2art/
関連論文リスト
- Kinematify: Open-Vocabulary Synthesis of High-DoF Articulated Objects [59.51185639557874]
本稿では,任意のRGB画像やテキスト記述から直接音声オブジェクトを合成するフレームワークであるKinematifyを紹介する。
提案手法は, 高DoFオブジェクトに対する運動的トポロジの推測と静的幾何からの関節パラメータの推定という2つの課題に対処する。
論文 参考訳(メタデータ) (2025-11-03T07:21:42Z) - VideoArtGS: Building Digital Twins of Articulated Objects from Monocular Video [60.63575135514847]
モノクロビデオから音声化されたオブジェクトのデジタルツインを構築することは、コンピュータビジョンにおいて重要な課題である。
本稿では,モノクロ映像から高忠実度デジタル双対を再構成する新しい手法であるVideoArtGSを紹介する。
VideoArtGSは、調音およびメッシュ再構成における最先端性能を示し、既存の方法に比べて約2桁の再現誤差を低減している。
論文 参考訳(メタデータ) (2025-09-22T11:52:02Z) - iTACO: Interactable Digital Twins of Articulated Objects from Casually Captured RGBD Videos [52.398752421673144]
本研究では,手持ちカメラで撮影したカジュアルなRGBD映像から,物体の動作解析と部分レベルセグメンテーションに焦点を当てた。
スマートフォンを用いて手軽に手軽に手軽に手軽に手に入ることができる。
動的RGBDビデオからオブジェクトの関節パラメータとセグメントを推論する粗粒度フレームワークiTACOを紹介する。
論文 参考訳(メタデータ) (2025-06-10T01:41:46Z) - ObjectMover: Generative Object Movement with Video Prior [69.75281888309017]
本稿では,難易度の高いシーンでオブジェクトの動きを再現できる生成モデルであるObjectMoverを提案する。
このアプローチにより、我々のモデルは複雑な現実世界のシナリオに適応できることを示す。
本稿では,実世界の映像データを学習してモデル一般化を改善するマルチタスク学習戦略を提案する。
論文 参考訳(メタデータ) (2025-03-11T04:42:59Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。