論文の概要: AssetField: Assets Mining and Reconfiguration in Ground Feature Plane
Representation
- arxiv url: http://arxiv.org/abs/2303.13953v1
- Date: Fri, 24 Mar 2023 12:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:39:03.356587
- Title: AssetField: Assets Mining and Reconfiguration in Ground Feature Plane
Representation
- Title(参考訳): AssetField: 地平面表現におけるアセットマイニングと再構成
- Authors: Yuanbo Xiangli, Linning Xu, Xingang Pan, Nanxuan Zhao, Bo Dai, Dahua
Lin
- Abstract要約: AssetFieldは、新しいニューラルシーン表現で、シーンを表現するためにオブジェクト対応のグラウンド特徴面のセットを学習する。
AssetFieldは、新しいシーン構成のためのリアルなレンダリングを生成するとともに、新規ビュー合成のための競争性能を実現する。
- 参考スコア(独自算出の注目度): 111.59786941545774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both indoor and outdoor environments are inherently structured and
repetitive. Traditional modeling pipelines keep an asset library storing unique
object templates, which is both versatile and memory efficient in practice.
Inspired by this observation, we propose AssetField, a novel neural scene
representation that learns a set of object-aware ground feature planes to
represent the scene, where an asset library storing template feature patches
can be constructed in an unsupervised manner. Unlike existing methods which
require object masks to query spatial points for object editing, our ground
feature plane representation offers a natural visualization of the scene in the
bird-eye view, allowing a variety of operations (e.g. translation, duplication,
deformation) on objects to configure a new scene. With the template feature
patches, group editing is enabled for scenes with many recurring items to avoid
repetitive work on object individuals. We show that AssetField not only
achieves competitive performance for novel-view synthesis but also generates
realistic renderings for new scene configurations.
- Abstract(参考訳): 屋内環境も屋外環境も本質的に構造的で反復的である。
従来のモデリングパイプラインでは、ユニークなオブジェクトテンプレートを格納するアセットライブラリが維持されている。
そこで本研究では,テンプレート特徴パッチを格納したアセットライブラリを教師なしで構築できる,シーンを表現するオブジェクト認識基底特徴平面のセットを学習するニューラルシーン表現であるアセットフィールドを提案する。
オブジェクトの編集に空間点を問うためにオブジェクトマスクを必要とする既存の方法とは異なり、地上特徴平面表現は鳥眼ビューのシーンを自然に視覚化し、オブジェクト上の様々な操作(例えば、翻訳、複製、変形)で新しいシーンを構成することができる。
テンプレート機能パッチにより、多数の繰り返しアイテムを持つシーンでグループ編集が有効になり、オブジェクト個人に対する反復的な作業が回避される。
AssetFieldは新規ビュー合成のための競争性能を達成するだけでなく、新しいシーン構成のためのリアルレンダリングを生成する。
関連論文リスト
- Personalized Instance-based Navigation Toward User-Specific Objects in Realistic Environments [44.6372390798904]
本稿では,特定の個人オブジェクトの位置と到達を具体化するタスクデノマイトされたパーソナライズされたパーソナライズドインスタンスベースのナビゲーション(PIN)を提案する。
各エピソードにおいて、ターゲットオブジェクトは、中性背景上の視覚的参照画像のセットと手動による注釈付きテキスト記述の2つのモードを使用してエージェントに提示される。
論文 参考訳(メタデータ) (2024-10-23T18:01:09Z) - Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - MOST: Multiple Object localization with Self-supervised Transformers for
object discovery [97.47075050779085]
自己教師型トランスフォーマー(MOST)を用いた複数オブジェクトのローカライゼーションを提案する。
MOSTは、自己教師付き学習を用いて訓練されたトランスフォーマーの機能を使用して、実世界の画像に複数のオブジェクトをローカライズする。
対象検出器の自己教師付き事前学習にはMOSTが有効であり, 半教師付きオブジェクト検出と非教師付き領域提案生成において一貫した改善が得られた。
論文 参考訳(メタデータ) (2023-04-11T17:57:27Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Scene-level Tracking and Reconstruction without Object Priors [14.068026331380844]
本研究では,各シーンにおける可視物体の追跡と再構成を行うことのできる,初めてのリアルタイムシステムを提案する。
提案システムでは,新しいシーンにおける全可視物体のライブな形状と変形をリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2022-10-07T20:56:14Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - TSDF++: A Multi-Object Formulation for Dynamic Object Tracking and
Reconstruction [57.1209039399599]
我々は,シーン全体とその中のすべてのオブジェクトに対して,単一のボリュームを維持できるマップ表現を提案する。
複数の動的オブジェクト追跡および再構成シナリオにおいて,本表現は,近接して移動する他のオブジェクトによって一時的にオクルードされても,表面の正確な再構成を維持できる。
提案したTSDF++の定式化を公開合成データセット上で評価し,標準のTSDFマップ表現と比較した場合の閉塞面の復元性を示す。
論文 参考訳(メタデータ) (2021-05-16T16:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。