論文の概要: NANO3D: A Training-Free Approach for Efficient 3D Editing Without Masks
- arxiv url: http://arxiv.org/abs/2510.15019v1
- Date: Thu, 16 Oct 2025 17:51:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.32714
- Title: NANO3D: A Training-Free Approach for Efficient 3D Editing Without Masks
- Title(参考訳): NANO3D: マスクのない効率的な3D編集のためのトレーニング不要アプローチ
- Authors: Junliang Ye, Shenghao Xie, Ruowen Zhao, Zhengyi Wang, Hongyu Yan, Wenqiang Zu, Lei Ma, Jun Zhu,
- Abstract要約: Nano3Dは、マスクなしで正確でコヒーレントな3Dオブジェクト編集のためのトレーニング不要のフレームワークである。
我々は,10万以上の高品質な3D編集ペアを含む,最初の大規模3D編集データセットであるNano3D-Edit-100kを構築した。
- 参考スコア(独自算出の注目度): 29.825760228576744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object editing is essential for interactive content creation in gaming, animation, and robotics, yet current approaches remain inefficient, inconsistent, and often fail to preserve unedited regions. Most methods rely on editing multi-view renderings followed by reconstruction, which introduces artifacts and limits practicality. To address these challenges, we propose Nano3D, a training-free framework for precise and coherent 3D object editing without masks. Nano3D integrates FlowEdit into TRELLIS to perform localized edits guided by front-view renderings, and further introduces region-aware merging strategies, Voxel/Slat-Merge, which adaptively preserve structural fidelity by ensuring consistency between edited and unedited areas. Experiments demonstrate that Nano3D achieves superior 3D consistency and visual quality compared with existing methods. Based on this framework, we construct the first large-scale 3D editing datasets Nano3D-Edit-100k, which contains over 100,000 high-quality 3D editing pairs. This work addresses long-standing challenges in both algorithm design and data availability, significantly improving the generality and reliability of 3D editing, and laying the groundwork for the development of feed-forward 3D editing models. Project Page:https://jamesyjl.github.io/Nano3D
- Abstract(参考訳): 3Dオブジェクトの編集は、ゲーム、アニメーション、ロボット工学においてインタラクティブなコンテンツ作成に不可欠であるが、現在のアプローチは非効率で一貫性がなく、しばしば未編集領域の保存に失敗する。
ほとんどのメソッドは、アーティファクトを導入し、実用性を制限するため、マルチビューレンダリングの編集に続き、再構築が続く。
これらの課題に対処するため,マスクを使わずに正確な3Dオブジェクト編集を行うためのトレーニングフリーフレームワークであるNano3Dを提案する。
Nano3Dは、FlowEditをTRELLISに統合し、フロントビューレンダリングでガイドされたローカライズされた編集を実行し、さらに、編集された領域と未編集領域の整合性を確保することで構造的忠実性を適応的に保持する、領域対応のマージ戦略であるVoxel/Slat-Mergeを導入する。
実験により,Nano3Dは既存の手法に比べて優れた3D整合性と視覚的品質が得られることが示された。
この枠組みに基づいて,10万以上の高品質な3D編集ペアを含む,最初の大規模3D編集データセットであるNano3D-Edit-100kを構築した。
この研究は、アルゴリズム設計とデータ可用性の両面での長年にわたる課題に対処し、3D編集の汎用性と信頼性を大幅に改善し、フィードフォワード3D編集モデルの開発の基礎となる。
Project Page:https://jamesyjl.github.io/Nano3D
関連論文リスト
- Towards Scalable and Consistent 3D Editing [32.16698854719098]
3D編集は没入型コンテンツ制作、デジタルエンターテイメント、AR/VRに広く応用されている。
2D編集とは異なり、クロスビューの一貫性、構造的忠実さ、きめ細かい制御性を必要とするため、依然として困難である。
我々はこれまでで最大の3D編集ベンチマークである3DEditVerseを紹介した。
モデル側では、3次元構造保存条件変換器である3DEditFormerを提案する。
論文 参考訳(メタデータ) (2025-10-03T13:34:55Z) - 3D-LATTE: Latent Space 3D Editing from Textual Instructions [64.77718887666312]
本研究では,ネイティブな3次元拡散モデルの潜在空間内で動作する学習自由な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
論文 参考訳(メタデータ) (2025-08-29T22:51:59Z) - Shape-for-Motion: Precise and Consistent Video Editing with 3D Proxy [48.72918598961146]
本稿では,精密で一貫したビデオ編集のための3Dプロキシを組み込んだ新しいフレームワークであるShape-for-Motionを紹介する。
我々のフレームワークは、ポーズ編集、回転、スケーリング、翻訳、テクスチャ修正、オブジェクト合成など、ビデオフレーム間の精密で物理的に一貫性のある操作をサポートしています。
論文 参考訳(メタデータ) (2025-06-27T17:59:01Z) - PrEditor3D: Fast and Precise 3D Shape Editing [100.09112677669376]
本稿では,1つの形状の編集を数分以内に行うことができる3D編集のためのトレーニングフリーアプローチを提案する。
編集された3Dメッシュはプロンプトとよく一致しており、変更を意図していない領域でも同じである。
論文 参考訳(メタデータ) (2024-12-09T15:44:47Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - Reference-Based 3D-Aware Image Editing with Triplanes [15.222454412573455]
本研究は,先進的な参照ベース編集における三面体空間の有効性を探求し,実証する。
提案手法は, 符号化, 自動位置決め, 三面体特徴の空間的ゆがみ, 融合学習を統合して, 所望の編集を実現する。
われわれは、人間の顔、360度頭部、動物の顔、漫画の顔のような部分的にスタイリングされた編集、フルボディの衣服の編集、クラスに依存しないサンプルの編集など、さまざまな領域にまたがるアプローチを実証した。
論文 参考訳(メタデータ) (2024-04-04T17:53:33Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - SHAP-EDITOR: Instruction-guided Latent 3D Editing in Seconds [73.91114735118298]
Shap-Editorは、新しいフィードフォワード3D編集フレームワークである。
フィードフォワード・エディター・ネットワークを構築することで,この空間で直接3D編集を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2023-12-14T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。