論文の概要: DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization
- arxiv url: http://arxiv.org/abs/2305.00393v4
- Date: Fri, 26 Jan 2024 07:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 18:34:14.751005
- Title: DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization
- Title(参考訳): DynaVol: オブジェクト中心の語彙化による動的シーンの教師なし学習
- Authors: Yanpeng Zhao, Siyu Gao, Yunbo Wang, Xiaokang Yang
- Abstract要約: 幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
- 参考スコア(独自算出の注目度): 67.85434518679382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning of object-centric representations in dynamic visual
scenes is challenging. Unlike most previous approaches that learn to decompose
2D images, we present DynaVol, a 3D scene generative model that unifies
geometric structures and object-centric learning in a differentiable volume
rendering framework. The key idea is to perform object-centric voxelization to
capture the 3D nature of the scene, which infers the probability distribution
over objects at individual spatial locations. These voxel features evolve over
time through a canonical-space deformation function, forming the basis for
global representation learning via slot attention. The voxel features and
global features are complementary and are both leveraged by a compositional
NeRF decoder for volume rendering. DynaVol remarkably outperforms existing
approaches for unsupervised dynamic scene decomposition. Once trained, the
explicitly meaningful voxel features enable additional capabilities that 2D
scene decomposition methods cannot achieve: it is possible to freely edit the
geometric shapes or manipulate the motion trajectories of the objects.
- Abstract(参考訳): 動的視覚シーンにおけるオブジェクト中心表現の教師なし学習は困難である。
2D画像の分解を学習する従来のアプローチとは異なり、DynaVolは幾何学的構造とオブジェクト中心の学習を異なるボリュームレンダリングフレームワークで統一する3Dシーン生成モデルである。
キーとなるアイデアは、オブジェクト中心のボキセル化を行い、シーンの3D特性を捉え、個々の空間位置におけるオブジェクト上の確率分布を推定する。
これらのボクセル機能は標準空間変形関数を通じて時間とともに進化し、スロットアテンションによるグローバル表現学習の基礎を形成する。
voxelの特徴とグローバル機能は相補的であり、ボリュームレンダリングのために構成型nerfデコーダによって利用される。
dynavolは教師なし動的シーン分解の既存のアプローチを著しく上回っている。
トレーニングが終わると、明確に意味のあるボクセル機能は、2Dシーン分解法では達成できない追加の機能を可能にし、幾何学的な形状を自由に編集したり、物体の運動軌跡を操作できる。
関連論文リスト
- Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - Variational Inference for Scalable 3D Object-centric Learning [19.445804699433353]
我々は3Dシーンにおける拡張性のないオブジェクト中心表現学習の課題に取り組む。
オブジェクト中心表現学習への既存のアプローチは、より大きなシーンに一般化する際の限界を示している。
局所オブジェクト座標系におけるビュー不変3次元オブジェクト表現の学習を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:23:40Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。