論文の概要: AnchorFlow: Training-Free 3D Editing via Latent Anchor-Aligned Flows
- arxiv url: http://arxiv.org/abs/2511.22357v1
- Date: Thu, 27 Nov 2025 11:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.544054
- Title: AnchorFlow: Training-Free 3D Editing via Latent Anchor-Aligned Flows
- Title(参考訳): AnchorFlow: 潜水型アンカーアラインドフローによるトレーニング不要な3D編集
- Authors: Zhenglin Zhou, Fan Ma, Chengzhuo Gui, Xiaobo Xia, Hehe Fan, Yi Yang, Tat-Seng Chua,
- Abstract要約: トレーニング不要な3D編集は、モデル微調整なしで人間の指示に基づいて3D形状を変更することを目的としている。
既存のアプローチは、しばしば強い、あるいは幾何学的に安定した編集を作成するのに苦労する。
遅延アンカー一貫性の原理に基づいて構築されたAnchorFlowを紹介します。
- 参考スコア(独自算出の注目度): 83.84009605031291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training-free 3D editing aims to modify 3D shapes based on human instructions without model finetuning. It plays a crucial role in 3D content creation. However, existing approaches often struggle to produce strong or geometrically stable edits, largely due to inconsistent latent anchors introduced by timestep-dependent noise during diffusion sampling. To address these limitations, we introduce AnchorFlow, which is built upon the principle of latent anchor consistency. Specifically, AnchorFlow establishes a global latent anchor shared between the source and target trajectories, and enforces coherence using a relaxed anchor-alignment loss together with an anchor-aligned update rule. This design ensures that transformations remain stable and semantically faithful throughout the editing process. By stabilizing the latent reference space, AnchorFlow enables more pronounced semantic modifications. Moreover, AnchorFlow is mask-free. Without mask supervision, it effectively preserves geometric fidelity. Experiments on the Eval3DEdit benchmark show that AnchorFlow consistently delivers semantically aligned and structurally robust edits across diverse editing types. Code is at https://github.com/ZhenglinZhou/AnchorFlow.
- Abstract(参考訳): トレーニング不要な3D編集は、モデル微調整なしで人間の指示に基づいて3D形状を変更することを目的としている。
3Dコンテンツ制作において重要な役割を担っている。
しかし、既存のアプローチはしばしば、拡散サンプリング中に時間に依存しないノイズによって導入される一貫性のない潜伏アンカーのために、強いあるいは幾何的に安定な編集を作成するのに苦労する。
これらの制限に対処するため、潜時アンカー一貫性の原則に基づいて構築されたAnchorFlowを紹介します。
具体的には、AnchorFlowはソースとターゲットのトラジェクトリ間で共有されるグローバルな潜在アンカーを確立し、アンカーアライメントされた更新ルールとともに、緩和されたアンカーアライメント損失を使用してコヒーレンスを実行する。
この設計は、編集プロセスを通して変換が安定し、意味的に忠実であることを保証する。
遅延参照空間を安定化することにより、AnchorFlowはより顕著なセマンティックな修正を可能にする。
さらに、AnchorFlowはマスクフリーである。
マスクの監督がなければ、幾何学的忠実さを効果的に維持できる。
Eval3DEditベンチマークの実験によると、AnchorFlowは、さまざまな編集タイプに対して、セマンティックに整合し、構造的に堅牢な編集を一貫して提供する。
コードはhttps://github.com/ZhenglinZhou/AnchorFlowにある。
関連論文リスト
- SplitFlow: Flow Decomposition for Inversion-Free Text-to-Image Editing [15.234877788378563]
整流流モデルは, 安定したサンプリング軌道と高忠実度出力により, 画像生成におけるデファクトスタンダードとなっている。
強力な生成能力にもかかわらず、画像編集タスクには限界がある。
近年の取り組みでは、ソースとターゲットの分布を直接ODEベースのアプローチでインバージョンせずにマッピングする試みが行われている。
本稿では,これらの制約に対応するために,インバージョンフリーな定式化に基づくフロー分解・集約フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-29T21:12:58Z) - FlowDrag: 3D-aware Drag-based Image Editing with Mesh-guided Deformation Vector Flow Fields [20.793887576117527]
幾何情報を利用してより正確でコヒーレントな変換を行うFlowDragを提案する。
提案手法は,ユーザ定義のドラッグポイントに基づくメッシュ変形を誘導するエネルギー関数を用いて,画像から3次元メッシュを構築する。
得られたメッシュの変位は2Dに投影され、UNetデノナイジングプロセスに組み込まれ、正確なハンド・ツー・ターゲットのポイントアライメントを可能にする。
論文 参考訳(メタデータ) (2025-07-11T03:18:52Z) - FlowAlign: Trajectory-Regularized, Inversion-Free Flow-based Image Editing [47.908940130654535]
FlowAlignは、最適な制御ベースの軌道制御による一貫した画像編集のためのインバージョンフリーなフローベースフレームワークである。
我々の終点正規化は、編集プロンプトとのセマンティックアライメントのバランスと、軌道に沿ったソース画像との構造的整合性を示す。
FlowAlignは、ソース保存と編集の制御性の両方において、既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-05-29T06:33:16Z) - OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting [54.525583840585305]
我々はオブジェクトの削除と挿入を相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介した。
我々の新しいCFDメトリクスは、コンテキスト整合性とオブジェクト幻覚の堅牢で参照不要な評価を提供する。
論文 参考訳(メタデータ) (2025-03-11T17:55:27Z) - Semantic Latent Decomposition with Normalizing Flows for Face Editing [43.41509627246366]
StyleGANの潜伏空間でのナビゲーションは、顔編集に有効であることが示されている。
結果として得られる手法は通常、潜伏空間における異なる属性間の絡み合いによる複雑なナビゲーションの課題に直面する。
本稿では,SDFlowと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-11T08:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。