論文の概要: AssetField: Assets Mining and Reconfiguration in Ground Feature Plane
Representation
- arxiv url: http://arxiv.org/abs/2303.13953v1
- Date: Fri, 24 Mar 2023 12:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:39:03.356587
- Title: AssetField: Assets Mining and Reconfiguration in Ground Feature Plane
Representation
- Title(参考訳): AssetField: 地平面表現におけるアセットマイニングと再構成
- Authors: Yuanbo Xiangli, Linning Xu, Xingang Pan, Nanxuan Zhao, Bo Dai, Dahua
Lin
- Abstract要約: AssetFieldは、新しいニューラルシーン表現で、シーンを表現するためにオブジェクト対応のグラウンド特徴面のセットを学習する。
AssetFieldは、新しいシーン構成のためのリアルなレンダリングを生成するとともに、新規ビュー合成のための競争性能を実現する。
- 参考スコア(独自算出の注目度): 111.59786941545774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both indoor and outdoor environments are inherently structured and
repetitive. Traditional modeling pipelines keep an asset library storing unique
object templates, which is both versatile and memory efficient in practice.
Inspired by this observation, we propose AssetField, a novel neural scene
representation that learns a set of object-aware ground feature planes to
represent the scene, where an asset library storing template feature patches
can be constructed in an unsupervised manner. Unlike existing methods which
require object masks to query spatial points for object editing, our ground
feature plane representation offers a natural visualization of the scene in the
bird-eye view, allowing a variety of operations (e.g. translation, duplication,
deformation) on objects to configure a new scene. With the template feature
patches, group editing is enabled for scenes with many recurring items to avoid
repetitive work on object individuals. We show that AssetField not only
achieves competitive performance for novel-view synthesis but also generates
realistic renderings for new scene configurations.
- Abstract(参考訳): 屋内環境も屋外環境も本質的に構造的で反復的である。
従来のモデリングパイプラインでは、ユニークなオブジェクトテンプレートを格納するアセットライブラリが維持されている。
そこで本研究では,テンプレート特徴パッチを格納したアセットライブラリを教師なしで構築できる,シーンを表現するオブジェクト認識基底特徴平面のセットを学習するニューラルシーン表現であるアセットフィールドを提案する。
オブジェクトの編集に空間点を問うためにオブジェクトマスクを必要とする既存の方法とは異なり、地上特徴平面表現は鳥眼ビューのシーンを自然に視覚化し、オブジェクト上の様々な操作(例えば、翻訳、複製、変形)で新しいシーンを構成することができる。
テンプレート機能パッチにより、多数の繰り返しアイテムを持つシーンでグループ編集が有効になり、オブジェクト個人に対する反復的な作業が回避される。
AssetFieldは新規ビュー合成のための競争性能を達成するだけでなく、新しいシーン構成のためのリアルレンダリングを生成する。
関連論文リスト
- MOST: Multiple Object localization with Self-supervised Transformers for
object discovery [97.47075050779085]
自己教師型トランスフォーマー(MOST)を用いた複数オブジェクトのローカライゼーションを提案する。
MOSTは、自己教師付き学習を用いて訓練されたトランスフォーマーの機能を使用して、実世界の画像に複数のオブジェクトをローカライズする。
対象検出器の自己教師付き事前学習にはMOSTが有効であり, 半教師付きオブジェクト検出と非教師付き領域提案生成において一貫した改善が得られた。
論文 参考訳(メタデータ) (2023-04-11T17:57:27Z) - OPDMulti: Openable Part Detection for Multiple Objects [9.738426336815113]
開部検出は、単一ビュー画像中のオブジェクトの開部を検出するタスクである。
我々は,このタスクを複数のオブジェクトを持つシーンに一般化し,実世界のシーンに基づいて対応するデータセットを作成する。
実験の結果,OPDFormerアーキテクチャは従来よりも大幅に優れていたことがわかった。
論文 参考訳(メタデータ) (2023-03-24T15:52:20Z) - Structure-Guided Image Completion with Image-level and Object-level
Semantic Discriminators [118.6132221271663]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Scene-level Tracking and Reconstruction without Object Priors [14.068026331380844]
本研究では,各シーンにおける可視物体の追跡と再構成を行うことのできる,初めてのリアルタイムシステムを提案する。
提案システムでは,新しいシーンにおける全可視物体のライブな形状と変形をリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2022-10-07T20:56:14Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - SIMONe: View-Invariant, Temporally-Abstracted Object Representations via
Unsupervised Video Decomposition [69.90530987240899]
この問題に対して教師なしの変分法を提案する。
我々のモデルは、RGBビデオ入力のみから2組の潜在表現を推論することを学ぶ。
これは、視点に依存しないアロセントリックな方法でオブジェクト属性を表現する。
論文 参考訳(メタデータ) (2021-06-07T17:59:23Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。