論文の概要: SERF: Fine-Grained Interactive 3D Segmentation and Editing with Radiance
Fields
- arxiv url: http://arxiv.org/abs/2312.15856v1
- Date: Tue, 26 Dec 2023 02:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:08:31.167870
- Title: SERF: Fine-Grained Interactive 3D Segmentation and Editing with Radiance
Fields
- Title(参考訳): SERF: 微粒な対話型3Dセグメンテーションとラジアンスフィールドによる編集
- Authors: Kaichen Zhou, Lanqing Hong, Enze Xie, Yongxin Yang, Zhenguo Li, Wei
Zhang
- Abstract要約: 放射場を用いた対話型3Dセグメンテーションと編集アルゴリズムを新たに導入し,これをSERFと呼ぶ。
提案手法では,マルチビューアルゴリズムと事前学習した2Dモデルを統合することにより,ニューラルネットワーク表現を生成する。
この表現に基づいて,局所的な情報を保存し,変形に頑健な新しい表面レンダリング技術を導入する。
- 参考スコア(独自算出の注目度): 97.63648347686456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although significant progress has been made in the field of 2D-based
interactive editing, fine-grained 3D-based interactive editing remains
relatively unexplored. This limitation can be attributed to two main
challenges: the lack of an efficient 3D representation robust to different
modifications and the absence of an effective 3D interactive segmentation
method. In this paper, we introduce a novel fine-grained interactive 3D
segmentation and editing algorithm with radiance fields, which we refer to as
SERF. Our method entails creating a neural mesh representation by integrating
multi-view algorithms with pre-trained 2D models. Building upon this
representation, we introduce a novel surface rendering technique that preserves
local information and is robust to deformation. Moreover, this representation
forms the basis for achieving accurate and interactive 3D segmentation without
requiring 3D supervision. Harnessing this representation facilitates a range of
interactive 3D editing operations, encompassing tasks such as interactive
geometry editing and texture painting. Extensive experiments and visualization
examples of editing on both real and synthetic data demonstrate the superiority
of our method on representation quality and editing ability.
- Abstract(参考訳): 2Dベースのインタラクティブ編集の分野では大きな進歩があったが、細粒度の3Dベースのインタラクティブ編集はいまだに研究されていない。
この制限は、異なる修正に対して堅牢な効率的な3D表現の欠如と、効果的な3Dインタラクティブセグメンテーション手法の欠如の2つの主な課題に起因する。
本稿では,SERFと呼ばれる放射場を用いた対話型3次元セグメンテーション・編集アルゴリズムを提案する。
提案手法では,マルチビューアルゴリズムと事前学習した2次元モデルを統合することにより,ニューラルネットワーク表現を生成する。
この表現に基づいて,局所情報を保存し,変形に対して堅牢な新しい表面レンダリング技術を導入する。
さらに、この表現は、3Dの監督を必要とせず、正確でインタラクティブな3Dセグメンテーションを実現するための基盤を形成する。
この表現の調和は、インタラクティブな幾何学的編集やテクスチャ描画といったタスクを含む、インタラクティブな3D編集操作を促進する。
実データと合成データの両方の編集に関する広範な実験と可視化の例から,本手法の表現品質と編集能力に優れることを示す。
関連論文リスト
- Chat-Edit-3D: Interactive 3D Scene Editing via Text Prompts [76.73043724587679]
CE3Dと呼ばれる対話型3Dシーン編集手法を提案する。
Hash-Atlasは3Dシーンビューを表し、3Dシーンの編集を2Dアトラスイメージに転送する。
その結果、CE3Dは複数の視覚モデルを効果的に統合し、多様な視覚効果が得られることを示した。
論文 参考訳(メタデータ) (2024-07-09T13:24:42Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - Reference-Based 3D-Aware Image Editing with Triplanes [15.222454412573455]
GAN(Generative Adversarial Networks)は、高品質な画像生成と、潜伏空間を操作することで実際の画像編集のための強力なツールとして登場した。
GANの最近の進歩には、EG3Dのような3次元認識モデルが含まれており、単一の画像から3次元幾何学を再構築できる効率的な三面体ベースのアーキテクチャを備えている。
本研究では,先進的な参照ベース編集における三面体空間の有効性を探索し,実証することにより,このギャップを解消する。
論文 参考訳(メタデータ) (2024-04-04T17:53:33Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [94.47518916521065]
カラーフィールドを2次元の鮮明なアグリゲーションに置き換えることを提案する。
歪み効果を回避し、簡便な編集を容易にするため、3Dの点をテクスチャルックアップのために2Dピクセルにマッピングする投影場を標準画像に補完する。
私たちの表現はAGAPと呼ばれ、再最適化を必要とせず、様々な3D編集方法(スタイル化、インタラクティブな描画、コンテンツ抽出など)をうまくサポートしています。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - Scene-Generalizable Interactive Segmentation of Radiance Fields [64.37093918762]
我々はSGISRF(Scene-Generalizable Interactive in Radiance Fields)の最初の試みを行う。
そこで本研究では,複数視点の2D画像に対して,対話的なユーザクリック数回しか表示されない,新しい(見えない)シーンの3Dオブジェクトセグメンテーションを実現するSGISRF手法を提案する。
多様なシーンをカバーする2つの実世界の挑戦的ベンチマーク実験は,1) 提案手法の有効性とシーン一般化性を示し,2) シーン固有の最適化を必要とする古典的手法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2023-08-09T17:55:50Z) - 3Deformer: A Common Framework for Image-Guided Mesh Deformation [27.732389685912214]
ソース3Dメッシュにセマンティック素材とユーザが指定したセマンティックイメージが与えられた場合、3Deformerはソースメッシュを正確に編集することができる。
私たちの3Deformerは素晴らしい結果をもたらし、最先端のレベルに達することができます。
論文 参考訳(メタデータ) (2023-07-19T10:44:44Z) - Vox-E: Text-guided Voxel Editing of 3D Objects [14.88446525549421]
大規模テキスト誘導拡散モデルが注目されているのは、多様な画像を合成できるためである。
本稿では,既存の3次元オブジェクトの編集に潜時拡散モデルのパワーを利用する手法を提案する。
論文 参考訳(メタデータ) (2023-03-21T17:36:36Z) - 3D Neural Sculpting (3DNS): Editing Neural Signed Distance Functions [34.39282814876276]
本研究では,ニューラルネットワークを用いて表現された符号付き距離関数の対話的編集を行う手法を提案する。
メッシュのための3D彫刻ソフトウェアにインスパイアされた私たちは、直感的で将来彫刻家やデジタルアーティストが利用できるブラシベースのフレームワークを使用しています。
論文 参考訳(メタデータ) (2022-09-28T10:05:16Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。