論文の概要: OmniShape: Zero-Shot Multi-Hypothesis Shape and Pose Estimation in the Real World
- arxiv url: http://arxiv.org/abs/2508.03669v1
- Date: Tue, 05 Aug 2025 17:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.101322
- Title: OmniShape: Zero-Shot Multi-Hypothesis Shape and Pose Estimation in the Real World
- Title(参考訳): OmniShape: 実世界におけるゼロショット多面体形状とポス推定
- Authors: Katherine Liu, Sergey Zakharov, Dian Chen, Takuya Ikeda, Greg Shakhnarovich, Adrien Gaidon, Rares Ambrus,
- Abstract要約: 確率的ポーズと形状推定を可能にする手法として,OmniShapeを提案する。
実世界のデータセットに挑戦する上で、魅力的なパフォーマンスを示します。
- 参考スコア(独自算出の注目度): 40.603660397783855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We would like to estimate the pose and full shape of an object from a single observation, without assuming known 3D model or category. In this work, we propose OmniShape, the first method of its kind to enable probabilistic pose and shape estimation. OmniShape is based on the key insight that shape completion can be decoupled into two multi-modal distributions: one capturing how measurements project into a normalized object reference frame defined by the dataset and the other modelling a prior over object geometries represented as triplanar neural fields. By training separate conditional diffusion models for these two distributions, we enable sampling multiple hypotheses from the joint pose and shape distribution. OmniShape demonstrates compelling performance on challenging real world datasets. Project website: https://tri-ml.github.io/omnishape
- Abstract(参考訳): 我々は、既知の3Dモデルやカテゴリを仮定することなく、一つの観察からオブジェクトのポーズと完全な形状を推定したい。
本研究では,確率的ポーズと形状推定を可能にする手法であるOmniShapeを提案する。
OmniShapeは、形状の完備化を2つのマルチモーダル分布に分解できるというキーとなる洞察に基づいている。
これら2つの分布に対する異なる条件拡散モデルを訓練することにより、関節のポーズと形状分布から複数の仮説をサンプリングすることができる。
OmniShapeは、現実世界のデータセットに挑戦する上で、魅力的なパフォーマンスを示す。
プロジェクトウェブサイト:https://tri-ml.github.io/omnishape
関連論文リスト
- Neural Localizer Fields for Continuous 3D Human Pose and Shape Estimation [32.30055363306321]
本研究では、異なる人間のポーズや形状に関連したタスクやデータセットをシームレスに統一するパラダイムを提案する。
我々の定式化は、人間の容積の任意の点を問合せし、推定位置を3Dで取得することに集中している。
論文 参考訳(メタデータ) (2024-07-10T10:44:18Z) - Multistable Shape from Shading Emerges from Patch Diffusion [17.090405682103167]
単一シェーディング画像から形状のマルチモーダル分布を再構成するモデルを提案する。
このモデルから,人間がマルチスタブルであるとして経験するあいまいなテスト画像に対して,マルチスタブルな形状説明が現れることを示す。
これは、3D形状の知覚のための新しいアーキテクチャを刺激し、より効率的で、人間の体験に合わせたものになるかもしれない。
論文 参考訳(メタデータ) (2024-05-23T13:15:24Z) - OV9D: Open-Vocabulary Category-Level 9D Object Pose and Size Estimation [56.028185293563325]
本稿では,新しい開集合問題,開語彙圏レベルのオブジェクトポーズとサイズ推定について検討する。
まずOO3D-9Dという大規模フォトリアリスティックなデータセットを紹介した。
次に、事前学習したDinoV2とテキストから画像への安定拡散モデルに基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-19T03:09:24Z) - DiffComplete: Diffusion-based Generative 3D Shape Completion [114.43353365917015]
3次元レンジスキャンにおける形状完成のための拡散に基づく新しいアプローチを提案する。
私たちはリアリズム、マルチモダリティ、高忠実さのバランスを取ります。
DiffCompleteは2つの大規模3次元形状補完ベンチマークに新しいSOTA性能を設定する。
論文 参考訳(メタデータ) (2023-06-28T16:07:36Z) - NAISR: A 3D Neural Additive Model for Interpretable Shape Representation [10.284366517948929]
科学的な形状発見のための解釈可能な形状表現のための3次元ニューラル付加モデル(テキストNAISR$)を提案する。
本手法は, 形状人口の傾向を把握し, 形状移動による患者固有の予測を可能にする。
我々の実験は、textitStarman$が解釈可能性を維持しながら優れた形状復元性能を発揮することを示した。
論文 参考訳(メタデータ) (2023-03-16T11:18:04Z) - Learning Visibility for Robust Dense Human Body Estimation [78.37389398573882]
2D画像から3Dのポーズと形状を推定することは、非常に難しい課題だ。
部分的な観察に頑健な高密度な人体推定を学習する。
我々は、高密度UV通信から可視性ラベルの擬似基底構造を取得し、3次元座標とともに可視性を予測するニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-08-23T00:01:05Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。