論文の概要: Point-based Instance Completion with Scene Constraints
- arxiv url: http://arxiv.org/abs/2504.05698v1
- Date: Tue, 08 Apr 2025 05:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:51.429674
- Title: Point-based Instance Completion with Scene Constraints
- Title(参考訳): シーン制約付きポイントベースインスタンス補完
- Authors: Wesley Khademi, Li Fuxin,
- Abstract要約: 任意のスケールでオブジェクトを頑健に完了し,シーン内でのポーズを可能にする,ポイントクラウドベースのインスタンス補完モデルを提案する。
提案手法は, 部分走査への忠実度の向上, 完成度の向上, 既存の最先端手法よりも高い妥当性を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent point-based object completion methods have demonstrated the ability to accurately recover the missing geometry of partially observed objects. However, these approaches are not well-suited for completing objects within a scene, as they do not consider known scene constraints (e.g., other observed surfaces) in their completions and further expect the partial input to be in a canonical coordinate system, which does not hold for objects within scenes. While instance scene completion methods have been proposed for completing objects within a scene, they lag behind point-based object completion methods in terms of object completion quality and still do not consider known scene constraints during completion. To overcome these limitations, we propose a point cloud-based instance completion model that can robustly complete objects at arbitrary scales and pose in the scene. To enable reasoning at the scene level, we introduce a sparse set of scene constraints represented as point clouds and integrate them into our completion model via a cross-attention mechanism. To evaluate the instance scene completion task on indoor scenes, we further build a new dataset called ScanWCF, which contains labeled partial scans as well as aligned ground truth scene completions that are watertight and collision-free. Through several experiments, we demonstrate that our method achieves improved fidelity to partial scans, higher completion quality, and greater plausibility over existing state-of-the-art methods.
- Abstract(参考訳): 最近の点ベースオブジェクト補完法は、部分的に観察された物体の欠落した形状を正確に復元できることを実証している。
しかし、これらの手法はシーン内のオブジェクトを完了させるには適していないため、完了時の既知のシーン制約(例えば、他の観察面)を考慮せず、部分的な入力がシーン内のオブジェクトを保持しない標準座標系に含まれることを期待している。
シーン内のオブジェクトを完了させるインスタンスシーン補完法が提案されているが、オブジェクトの完了品質の観点からはポイントベースのオブジェクト補完法に遅れをとっており、まだ完了時の既知のシーン制約を考慮していない。
これらの制約を克服するために、任意のスケールでオブジェクトを堅牢に完了し、シーンでポーズできるポイントクラウドベースのインスタンス補完モデルを提案する。
シーンレベルでの推論を可能にするために,ポイントクラウドとして表現されるシーン制約のスパースセットを導入し,クロスアテンション機構を通じてコンプリートモデルに統合する。
屋内シーンのインスタンスシーン完了タスクを評価するために,ラベル付き部分スキャンを含むScanWCFと呼ばれる新しいデータセットを構築した。
いくつかの実験により,本手法は部分的スキャンに対する忠実度の向上,完成度の向上,既存の最先端手法に対する妥当性の向上を実現している。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - ObjectCarver: Semi-automatic segmentation, reconstruction and separation of 3D objects [44.38881095466177]
複数の画像から3次元表面を再構成する際、暗黙の神経磁場は顕著な進歩を遂げた。
これまでの研究は、署名された距離フィールドを個別に訓練するフレームワークを導入して、この問題に対処しようと試みてきた。
一つのビューで単に入力をクリックすることからオブジェクト分離の問題に取り組むために、ObjectCarverというメソッドを導入します。
論文 参考訳(メタデータ) (2024-07-26T22:13:20Z) - Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - Scene-level Tracking and Reconstruction without Object Priors [14.068026331380844]
本研究では,各シーンにおける可視物体の追跡と再構成を行うことのできる,初めてのリアルタイムシステムを提案する。
提案システムでは,新しいシーンにおける全可視物体のライブな形状と変形をリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2022-10-07T20:56:14Z) - Point Scene Understanding via Disentangled Instance Mesh Reconstruction [21.92736190195887]
本稿では,効率的なポイントシーン理解のために,aDisentangled Instance Mesh Reconstruction (DIMR) フレームワークを提案する。
セグメント化ベースのバックボーンは、偽陽性オブジェクトの提案を減らすために適用される。
メッシュを意識した潜在コード空間を活用して、シェイプコンプリートとメッシュ生成のプロセスを切り離します。
論文 参考訳(メタデータ) (2022-03-31T06:36:07Z) - Towards realistic symmetry-based completion of previously unseen point
clouds [0.43496401697112697]
対称オブジェクトに対してよく機能する新しいフレームワークを提案する。
学習ベースのアプローチとは異なり、提案するフレームワークはトレーニングデータを必要としない。
提案するフレームワークは,実世界の顧客スキャンのポイントクラウド完了において,最先端の効率性を実現することを実証する。
論文 参考訳(メタデータ) (2022-01-05T23:05:13Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - Semantic Scene Completion via Integrating Instances and Scene
in-the-Loop [73.11401855935726]
Semantic Scene Completionは、単一の視野深度またはRGBD画像から正確なボキセルワイズセマンティクスで完全な3Dシーンを再構築することを目指しています。
本稿では、シーンレベルのセマンティクス情報とインスタンスレベルのセマンティクス情報の両方を利用するScene-Instance-Scene Network(textitSISNet)を提案する。
本手法は, セマンティックなカテゴリが容易に混在している近傍のオブジェクトと同様に, きめ細かい形状の細部を推定できる。
論文 参考訳(メタデータ) (2021-04-08T09:50:30Z) - Semantic Scene Completion using Local Deep Implicit Functions on LiDAR
Data [4.355440821669468]
本稿では,シーン補完のための新しい学習手法として,局所的な深層インプリシット関数に基づくシーン分割ネットワークを提案する。
この連続表現は、空間的離散化を必要とせず、広い屋外シーンの幾何学的・意味的な特性を符号化するのに適していることを示す。
実験により,本手法が与えられたシーンの高密度な3次元記述にデコード可能な強力な表現を生成することを確認した。
論文 参考訳(メタデータ) (2020-11-18T07:39:13Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Self-Supervised Scene De-occlusion [186.89979151728636]
本稿では,隠蔽対象の隠蔽順序を復元し,隠蔽対象の見えない部分を完成させることを目的としたシーン非隠蔽問題について検討する。
そこで本研究では,隠されたシーン構造を監視対象として指示やアモーダルアノテーションを使わずに復元する,新規で統一的なフレームワークを用いて,この問題に対処する試みを行う。
そこで,PCNet-M と PCNet-C をベースとして,プログレッシブ・オーダリング・リカバリ,アモーダル・コンプリーメント,コンテント・コンプリートを通じてシーン・デオクルージョンを実現する新しい推論手法を考案した。
論文 参考訳(メタデータ) (2020-04-06T16:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。