論文の概要: SPLATART: Articulated Gaussian Splatting with Estimated Object Structure
- arxiv url: http://arxiv.org/abs/2506.12184v1
- Date: Fri, 13 Jun 2025 19:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.387464
- Title: SPLATART: Articulated Gaussian Splatting with Estimated Object Structure
- Title(参考訳): SPLATART:推定対象構造を持つArticulated Gaussian Splatting
- Authors: Stanley Lewis, Vishal Chandra, Tom Gao, Odest Chadwicke Jenkins,
- Abstract要約: SPLATARTは、ポーズ画像から明瞭なオブジェクトの表現を学習するためのパイプラインである。
合成パリのデータセットオブジェクトに適用したパイプライン上のデータを示す。
さらに,より深いキネマティックツリー構造における使用例を示すために,直交鎖マニピュレータについて述べる。
- 参考スコア(独自算出の注目度): 6.863499171366721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing articulated objects remains a difficult problem within the field of robotics. Objects such as pliers, clamps, or cabinets require representations that capture not only geometry and color information, but also part seperation, connectivity, and joint parametrization. Furthermore, learning these representations becomes even more difficult with each additional degree of freedom. Complex articulated objects such as robot arms may have seven or more degrees of freedom, and the depth of their kinematic tree may be notably greater than the tools, drawers, and cabinets that are the typical subjects of articulated object research. To address these concerns, we introduce SPLATART - a pipeline for learning Gaussian splat representations of articulated objects from posed images, of which a subset contains image space part segmentations. SPLATART disentangles the part separation task from the articulation estimation task, allowing for post-facto determination of joint estimation and representation of articulated objects with deeper kinematic trees than previously exhibited. In this work, we present data on the SPLATART pipeline as applied to the syntheic Paris dataset objects, and qualitative results on a real-world object under spare segmentation supervision. We additionally present on articulated serial chain manipulators to demonstrate usage on deeper kinematic tree structures.
- Abstract(参考訳): ロボット工学の分野では、音声オブジェクトの表現は難しい問題である。
プライヤ、クランプ、キャビネットなどのオブジェクトは、幾何学や色情報だけでなく、分離、接続性、共同パラメトリゼーションも含む表現を必要とする。
さらに、これらの表現を学ぶことは、それぞれの追加の自由度によってさらに困難になる。
ロボットアームのような複雑な関節オブジェクトは7度以上の自由度を持ち、キネマティックツリーの深さは、関節オブジェクト研究の典型的な主題である道具、引き出し、キャビネットよりも顕著に大きい。
これらの問題に対処するために,サブセットが画像空間部分のセグメンテーションを含む画像から明瞭なオブジェクトのガウススプラ表現を学習するためのパイプラインであるSPLATARTを紹介した。
SPLATARTは、部分分離タスクを調音推定タスクから切り離し、従来よりも深いキネマティックツリーを持つ調音物体の関節推定と表現のファクト後決定を可能にする。
本研究では、パリの合成データセットオブジェクトに適用されたSPLATARTパイプラインのデータと、スペアセグメンテーション監視下の現実世界オブジェクトの定性的な結果を示す。
さらに,より深いキネマティックツリー構造における使用例を示すために,直交鎖マニピュレータについて述べる。
関連論文リスト
- ArtGS: Building Interactable Replicas of Complex Articulated Objects via Gaussian Splatting [66.29782808719301]
コンピュータビジョンにおいて、音声で表現されたオブジェクトを構築することが重要な課題である。
既存のメソッドは、しばしば異なるオブジェクト状態間で効果的に情報を統合できない。
3次元ガウスを柔軟かつ効率的な表現として活用する新しいアプローチであるArtGSを紹介する。
論文 参考訳(メタデータ) (2025-02-26T10:25:32Z) - Articulate AnyMesh: Open-Vocabulary 3D Articulated Objects Modeling [48.78204955169967]
Articulate Anymeshは,剛性のある3Dメッシュを,オープンな語彙で表現されたものに変換可能な,自動フレームワークである。
実験の結果、Articulate Anymeshは、ツール、おもちゃ、機械装置、車両など、大規模で高品質な3D関節オブジェクトを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-04T18:59:55Z) - NARF24: Estimating Articulated Object Structure for Implicit Rendering [8.044069980286812]
本稿では,少数のシーンに共通するニューラルラジアンス場(NeRF)の表現を学習する手法を提案する。
この表現は、暗黙の空間部分ローカライゼーションを生成するために、部分ベースのイメージセグメンテーションと組み合わせられる。
論文 参考訳(メタデータ) (2024-09-15T19:06:46Z) - Structure from Action: Learning Interactions for Articulated Object 3D
Structure Discovery [18.96346371296251]
SfA(Structure from Action)は,目に見えない物体の3次元部分形状と関節パラメータを発見するためのフレームワークである。
情報的相互作用を選択することで、SfAは部品を発見し、閉じた引き出しの内側のような閉塞面を明らかにする。
経験的に、SfAは最先端のコンポーネントのパイプラインを25.4の3D IoUパーセンテージで上回っている。
論文 参考訳(メタデータ) (2022-07-19T00:27:36Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects [73.23249640099516]
複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
論文 参考訳(メタデータ) (2021-12-21T16:37:48Z) - Learning Rope Manipulation Policies Using Dense Object Descriptors
Trained on Synthetic Depth Data [32.936908766549344]
本稿では,初期とゴールのロープ構成間の点対対応を学習する手法を提案する。
ABB YuMi Robotによるノットタイリングタスクの50回の試行では、これまで見つからなかった構成から66%のノットタイリング成功率を達成した。
論文 参考訳(メタデータ) (2020-03-03T23:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。