論文の概要: EditCast3D: Single-Frame-Guided 3D Editing with Video Propagation and View Selection
- arxiv url: http://arxiv.org/abs/2510.13652v1
- Date: Sat, 11 Oct 2025 22:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.728496
- Title: EditCast3D: Single-Frame-Guided 3D Editing with Video Propagation and View Selection
- Title(参考訳): EditCast3D:ビデオプロパゲーションとビュー選択によるシングルフレームガイド3D編集
- Authors: Huaizhi Qu, Ruichen Zhang, Shuqing Luo, Luchao Qi, Zhihao Zhang, Xiaoming Liu, Roni Sengupta, Tianlong Chen,
- Abstract要約: EditCast3Dは、ビデオ生成基盤モデルを使用して、再構築前にデータセット全体にわたって単一のファーストフレームから編集を伝搬するパイプラインである。
一般的に使用されている3D編集データセット上でEditCast3Dを評価し,最先端の3D編集ベースラインと比較した。
これらの結果は、基礎モデルを3D編集パイプラインに統合するためのスケーラブルで汎用的なパラダイムとしてEditCast3Dを確立している。
- 参考スコア(独自算出の注目度): 41.62398264236209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in foundation models have driven remarkable progress in image editing, yet their extension to 3D editing remains underexplored. A natural approach is to replace the image editing modules in existing workflows with foundation models. However, their heavy computational demands and the restrictions and costs of closed-source APIs make plugging these models into existing iterative editing strategies impractical. To address this limitation, we propose EditCast3D, a pipeline that employs video generation foundation models to propagate edits from a single first frame across the entire dataset prior to reconstruction. While editing propagation enables dataset-level editing via video models, its consistency remains suboptimal for 3D reconstruction, where multi-view alignment is essential. To overcome this, EditCast3D introduces a view selection strategy that explicitly identifies consistent and reconstruction-friendly views and adopts feedforward reconstruction without requiring costly refinement. In combination, the pipeline both minimizes reliance on expensive image editing and mitigates prompt ambiguities that arise when applying foundation models independently across images. We evaluate EditCast3D on commonly used 3D editing datasets and compare it against state-of-the-art 3D editing baselines, demonstrating superior editing quality and high efficiency. These results establish EditCast3D as a scalable and general paradigm for integrating foundation models into 3D editing pipelines. The code is available at https://github.com/UNITES-Lab/EditCast3D
- Abstract(参考訳): 基礎モデルの最近の進歩は、画像編集の顕著な進歩をもたらしたが、3D編集への拡張はいまだに未発見のままである。
自然なアプローチは、既存のワークフローのイメージ編集モジュールを基礎モデルに置き換えることである。
しかし、その大量の計算要求とクローズドソースAPIの制限とコストにより、これらのモデルを既存の反復的な編集戦略にプラグインするのは現実的ではない。
この制限に対処するために,ビデオ生成基盤モデルを用いたパイプラインであるEditCast3Dを提案する。
編集処理は、ビデオモデルによるデータセットレベルの編集を可能にするが、その一貫性は、マルチビューアライメントが不可欠である3D再構成に最適ではない。
これを解決するためにEditCast3Dでは、一貫性とリビルドフレンドリーなビューを明確に識別するビュー選択戦略を導入し、コストのかかる改善を必要とせずにフィードフォワード再構築を採用する。
このパイプラインはどちらも、高価な画像編集への依存を最小限に抑え、画像間で基礎モデルを独立して適用する際に生じる曖昧さを緩和する。
一般的に使用されている3D編集データセット上でEditCast3Dを評価し、最先端の3D編集ベースラインと比較し、優れた編集品質と高い効率を示す。
これらの結果は、基礎モデルを3D編集パイプラインに統合するためのスケーラブルで汎用的なパラダイムとしてEditCast3Dを確立している。
コードはhttps://github.com/UNITES-Lab/EditCast3Dで入手できる。
関連論文リスト
- 3DEgo: 3D Editing on the Go! [6.072473323242202]
本稿では,テキストプロンプトで案内されたモノクロ映像から3Dシーンを直接合成する新しい問題に対処する3DEgoを紹介する。
本フレームワークは,従来のマルチステージ3D編集プロセスを一段階のワークフローに合理化する。
3DEgoは、様々なビデオソースの編集精度、速度、適応性を示す。
論文 参考訳(メタデータ) (2024-07-14T07:03:50Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。