論文の概要: 2D Instance Editing in 3D Space
- arxiv url: http://arxiv.org/abs/2507.05819v1
- Date: Tue, 08 Jul 2025 09:38:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.837892
- Title: 2D Instance Editing in 3D Space
- Title(参考訳): 3次元空間における2次元インスタンス編集
- Authors: Yuhuan Xie, Aoxuan Pan, Ming-Xian Lin, Wei Huang, Yi-Hua Huang, Xiaojuan Qi,
- Abstract要約: 本稿では,2次元画像編集のための新しい「2D-3D-2D」フレームワークを提案する。
我々のアプローチは、2Dオブジェクトを3D表現に引き上げることから始まり、物理的に可塑性で剛性に制約された3D環境内での編集を可能にする。
DragGANやDragDiffusionのような既存の2D編集手法とは対照的に,本手法は3D環境において直接オブジェクトを操作できる。
- 参考スコア(独自算出の注目度): 39.53225056350435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models have achieved significant progress in advancing 2D image editing, demonstrating exceptional precision and realism. However, they often struggle with consistency and object identity preservation due to their inherent pixel-manipulation nature. To address this limitation, we introduce a novel "2D-3D-2D" framework. Our approach begins by lifting 2D objects into 3D representation, enabling edits within a physically plausible, rigidity-constrained 3D environment. The edited 3D objects are then reprojected and seamlessly inpainted back into the original 2D image. In contrast to existing 2D editing methods, such as DragGAN and DragDiffusion, our method directly manipulates objects in a 3D environment. Extensive experiments highlight that our framework surpasses previous methods in general performance, delivering highly consistent edits while robustly preserving object identity.
- Abstract(参考訳): 生成モデルは2次元画像編集を進歩させ、例外的な精度とリアリズムを示した。
しかし、それらはしばしば、その固有のピクセル操作の性質のために、一貫性とオブジェクトのアイデンティティの保存に苦しむ。
この制限に対処するために,新しい「2D-3D-2D」フレームワークを導入する。
我々のアプローチは、2Dオブジェクトを3D表現に引き上げることから始まり、物理的に可塑性で剛性に制約された3D環境内での編集を可能にする。
編集された3Dオブジェクトは再描画され、元の2D画像にシームレスに塗り替えられる。
DragGANやDragDiffusionのような既存の2D編集手法とは対照的に,本手法は3D環境において直接オブジェクトを操作できる。
大規模な実験により、我々のフレームワークは一般的なパフォーマンスにおいて従来の手法を超越し、高度に一貫した編集を提供しながら、オブジェクトのアイデンティティをしっかりと保存していることが明らかとなった。
関連論文リスト
- DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - Image Sculpting: Precise Object Editing with 3D Geometry Control [33.9777412846583]
Image Sculptingは、3D幾何学とグラフィックスのツールを組み込むことで、2D画像を編集する新しいフレームワークである。
これは、ポーズ編集、回転、翻訳、3D合成、彫刻、シリアル追加といった、正確で定量化され、物理的に証明可能な編集オプションをサポートする。
論文 参考訳(メタデータ) (2024-01-02T18:59:35Z) - BlobGAN-3D: A Spatially-Disentangled 3D-Aware Generative Model for
Indoor Scenes [42.61598924639625]
元の2D BlobGANを3D対応で改良したBlobGAN-3Dを提案する。
シーン内の個々のオブジェクトのゆがみを維持しながら、明示的なカメラポーズ制御を可能にする。
提案手法は,2D BlobGAN や他の 3D 対応 GAN ベースラインと比較して画像品質が同等であることを示す。
論文 参考訳(メタデータ) (2023-03-26T12:23:11Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - Cross-Modal 3D Shape Generation and Manipulation [62.50628361920725]
本稿では,2次元のモダリティと暗黙の3次元表現を共用した多モード生成モデルを提案する。
グレースケールラインスケッチとレンダリングカラー画像の2つの代表的な2次元モーダル性について,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-07-24T19:22:57Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。