論文の概要: LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency
- arxiv url: http://arxiv.org/abs/2602.18735v1
- Date: Sat, 21 Feb 2026 06:55:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.272881
- Title: LaS-Comp: Zero-shot 3D Completion with Latent-Spatial Consistency
- Title(参考訳): LaS-Comp: 遅延空間一貫性を持つゼロショット3Dコンプリート
- Authors: Weilong Yan, Haipeng Li, Hao Xu, Nianjin Ye, Yihao Ai, Shuaicheng Liu, Jingyu Hu,
- Abstract要約: LaS-Compは、ゼロショットとカテゴリに依存しない3次元形状補完のアプローチである。
私たちのフレームワークはトレーニングフリーで、異なる3Dファウンデーションモデルと互換性があります。
実世界と合成データを多様かつ困難な部分パターンで組み合わせた総合ベンチマークであるOmni-Compを紹介する。
- 参考スコア(独自算出の注目度): 46.8758656260597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces LaS-Comp, a zero-shot and category-agnostic approach that leverages the rich geometric priors of 3D foundation models to enable 3D shape completion across diverse types of partial observations. Our contributions are threefold: First, \ourname{} harnesses these powerful generative priors for completion through a complementary two-stage design: (i) an explicit replacement stage that preserves the partial observation geometry to ensure faithful completion; and (ii) an implicit refinement stage ensures seamless boundaries between the observed and synthesized regions. Second, our framework is training-free and compatible with different 3D foundation models. Third, we introduce Omni-Comp, a comprehensive benchmark combining real-world and synthetic data with diverse and challenging partial patterns, enabling a more thorough and realistic evaluation. Both quantitative and qualitative experiments demonstrate that our approach outperforms previous state-of-the-art approaches. Our code and data will be available at \href{https://github.com/DavidYan2001/LaS-Comp}{LaS-Comp}.
- Abstract(参考訳): 本稿では,多種多様な部分的観察における3次元形状の完備化を実現するために,3次元基礎モデルの幾何学的先駆を活かしたゼロショットおよびカテゴリ非依存のアプローチであるLaS-Compを紹介する。
まず、 \ourname{} は、補完的な2段階の設計を通して、これらの強力な生成前の先例を活用する。
一 忠実な完成を確保するために部分観察図を保存した明示的な代替段階
(II)暗黙の精製段階は、観察された領域と合成された領域のシームレスな境界を保証する。
第2に、私たちのフレームワークはトレーニングフリーで、異なる3D基盤モデルと互換性があります。
第3に、Omni-Compという、現実世界と合成データを多様で困難な部分的パターンで組み合わせた総合的なベンチマークを導入し、より徹底的で現実的な評価を可能にした。
定量的および定性的な実験は、我々のアプローチが従来の最先端のアプローチよりも優れていることを示す。
私たちのコードとデータは、 \href{https://github.com/DavidYan2001/LaS-Comp}{LaS-Comp}で公開されます。
関連論文リスト
- Gesplat: Robust Pose-Free 3D Reconstruction via Geometry-Guided Gaussian Splatting [21.952325954391508]
本稿では、3DGSベースのフレームワークであるGesplatを紹介し、ロバストな新しいビュー合成と、未提示のスパース画像からの幾何的に一貫した再構成を可能にする。
提案手法は,他のポーズフリー手法と比較して,前方および大規模の複雑なデータセット上でより堅牢な性能を実現する。
論文 参考訳(メタデータ) (2025-10-11T08:13:46Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - From One to More: Contextual Part Latents for 3D Generation [38.36190651170286]
CoPartは、コヒーレントなマルチパーツ生成のために、3Dオブジェクトをコンテキスト部分潜在子に分解する、部分認識拡散フレームワークである。
そこで我々は,メッシュセグメンテーションと人間検証アノテーションから得られた新しい3次元部分データセットを構築した。
実験では、パートレベルの編集、オブジェクト生成、シーン構成において、前例のない制御性を持つCoPartの優れた能力を実証した。
論文 参考訳(メタデータ) (2025-07-11T17:33:18Z) - ArticulatedGS: Self-supervised Digital Twin Modeling of Articulated Objects using 3D Gaussian Splatting [29.69981069695724]
RGBの出現と動きパラメータの推定により,部分レベルでの同時再構成の課題に対処する。
我々は3次元ガウス表現において、外観情報と幾何学情報の両方を同時に再構成する。
我々はArticulatedGSを紹介した。ArticulatedGSは自己監督型で総合的なフレームワークで、パートレベルで形状や外観を自律的にモデル化する。
論文 参考訳(メタデータ) (2025-03-11T07:56:12Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。