論文の概要: Articulation in Motion: Prior-free Part Mobility Analysis for Articulated Objects By Dynamic-Static Disentanglement
- arxiv url: http://arxiv.org/abs/2603.02910v1
- Date: Tue, 03 Mar 2026 12:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.782944
- Title: Articulation in Motion: Prior-free Part Mobility Analysis for Articulated Objects By Dynamic-Static Disentanglement
- Title(参考訳): 動きの調音:動的統計歪みによる調音物体の非自由部分運動解析
- Authors: Hao Ai, Wenjie Chang, Jianbo Jiao, Ales Leonardis, Ofek Eyal,
- Abstract要約: Articulation in Motion (AiM)は、ユーザオブジェクトインタラクションビデオと起動状態スキャンからインタラクティブな3Dデジタルレプリカを再構成する。
オブジェクトの3DGSスキャンから学習したデュアルガウスシーン表現を提案する。
モーションキューを使用して、オブジェクトを部品に分割し、関節を割り当てる。
- 参考スコア(独自算出の注目度): 33.737685950541795
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Articulated objects are ubiquitous in daily life. Our goal is to achieve a high-quality reconstruction, segmentation of independent moving parts, and analysis of articulation. Recent methods analyse two different articulation states and perform per-point part segmentation, optimising per-part articulation using cross-state correspondences, given a priori knowledge of the number of parts. Such assumptions greatly limit their applications and performance. Their robustness is reduced when objects cannot be clearly visible in both states. To address these issues, in this paper, we present a new framework, Articulation in Motion (AiM). We infer part-level decomposition, articulation kinematics, and reconstruct an interactive 3D digital replica from a user-object interaction video and a start-state scan. We propose a dual-Gaussian scene representation that is learned from an initial 3DGS scan of the object and a video that shows the movement of separate parts. It uses motion cues to segment the object into parts and assign articulation joints. Subsequently, a robust, sequential RANSAC is employed to achieve part mobility analysis without any part-level structural priors, which clusters moving primitives into rigid parts and estimates kinematics while automatically determining the number of parts. The proposed approach separates the object into parts, each represented as a 3D Gaussian set, enabling high-quality rendering. Our approach yields higher quality part segmentation than previous methods, without prior knowledge. Extensive experimental analysis on both simple and complex objects validates the effectiveness and strong generalisation ability of our approach. Project page: https://haoai-1997.github.io/AiM/.
- Abstract(参考訳): 人工物は日常生活においてどこにでもある。
我々のゴールは、高品質な再構築、独立した可動部分の分割、調音の分析である。
近年の手法は2つの異なる調音状態を分析し,各部分分節を最適化し,各部分分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分節分
このような仮定は、アプリケーションとパフォーマンスを大幅に制限します。
どちらの状態でも、オブジェクトがはっきりと見えなくなると、ロバスト性は低下する。
本稿では,これらの課題に対処するため,新たなフレームワークであるArticulation in Motion (AiM)を提案する。
我々は,対話型3Dデジタルレプリカをユーザオブジェクトインタラクションビデオと起動状態スキャンから,部分レベルの分解,調音キネマティクス,再構成を行う。
対象物の3DGSスキャンから学習したデュアルガウスのシーン表現と,別の部品の動きを示すビデオを提案する。
モーションキューを使用して、オブジェクトを部品に分割し、関節を割り当てる。
その後、ロバストでシーケンシャルなRANSACを用いて、プリミティブを剛体に移動させ、キネマティクスを推定し、部品の数を自動で決定する、部分レベルの構造的先行性のない部分移動解析を行う。
提案手法はオブジェクトを3次元ガウス集合として表現する部分に分割し,高品質なレンダリングを実現する。
提案手法は, 先行知識を伴わずに, 従来手法よりも高品質な部分分割を実現する。
単純な対象と複雑な対象の両方に対する大規模な実験解析は、我々のアプローチの有効性と強力な一般化能力を検証する。
プロジェクトページ:https://haoai-1997.github.io/AiM/。
関連論文リスト
- ArtLLM: Generating Articulated Assets via 3D LLM [19.814132638278547]
ArtLLMは、完全な3Dメッシュから直接高品質な調音資産を生成するための新しいフレームワークである。
コアとなるのは,大規模な調音データセットに基づいてトレーニングされた,3Dマルチモーダルな大規模言語モデルだ。
実験の結果,ArtLLMは部品配置精度と接合予測の両方で最先端の手法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2026-03-01T15:07:46Z) - PAct: Part-Decomposed Single-View Articulated Object Generation [45.04652409374895]
アーティキュレートされたオブジェクトは、AI、ロボティクス、VR/ARなど、インタラクティブな3Dアプリケーションの中心である。
明示的な部分認識条件下で部分幾何学, 構成, 調音を合成する, 調音オブジェクト生成のための部分中心生成フレームワークを提案する。
我々の表現は、オブジェクトを可動部品の集合としてモデル化し、それぞれ、部品のアイデンティティと調音の手がかりを付加した潜在トークンで符号化する。
論文 参考訳(メタデータ) (2026-02-16T17:45:44Z) - REACT3D: Recovering Articulations for Interactive Physical 3D Scenes [96.27769519526426]
REACT3Dは静的な3Dシーンを一貫した幾何学を持つシミュレーション可能なインタラクティブなレプリカに変換するフレームワークである。
室内の様々な場面における検出・分離・調音計測における最先端性能について検討した。
論文 参考訳(メタデータ) (2025-10-13T12:37:59Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - ArtGS: Building Interactable Replicas of Complex Articulated Objects via Gaussian Splatting [66.29782808719301]
コンピュータビジョンにおいて、音声で表現されたオブジェクトを構築することが重要な課題である。
既存のメソッドは、しばしば異なるオブジェクト状態間で効果的に情報を統合できない。
3次元ガウスを柔軟かつ効率的な表現として活用する新しいアプローチであるArtGSを紹介する。
論文 参考訳(メタデータ) (2025-02-26T10:25:32Z) - PARIS: Part-level Reconstruction and Motion Analysis for Articulated
Objects [17.191728053966873]
本研究は,調音対象に対する同時部分レベル再構成と動きパラメータ推定の課題に対処する。
パートレベルの暗黙的形状と外観モデルを学ぶ自己教師型エンドツーエンドアーキテクチャPARISを提案する。
提案手法は,オブジェクトカテゴリ全体にわたって最適化され,入力として3次元点雲が与えられるベースラインや先行作業よりも優れる。
論文 参考訳(メタデータ) (2023-08-14T18:18:00Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Unsupervised Kinematic Motion Detection for Part-segmented 3D Shape
Collections [14.899075941080541]
本研究では,部分分割型3次元形状収集における調音運動の発見のための教師なしアプローチを提案する。
私たちのアプローチは、カテゴリクロージャと呼ばれる概念に基づいています。オブジェクトの部分の有効な記述は、オブジェクトを同じ意味圏に保つべきです。
我々は、PartNet-Mobilityデータセットから部品の動きを再発見するためにこれを用いてアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-17T00:50:36Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。