論文の概要: World-Shaper: A Unified Framework for 360° Panoramic Editing
- arxiv url: http://arxiv.org/abs/2602.00265v1
- Date: Fri, 30 Jan 2026 19:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.08354
- Title: World-Shaper: A Unified Framework for 360° Panoramic Editing
- Title(参考訳): World-Shaper: 360°パノラマ編集のための統一フレームワーク
- Authors: Dong Liang, Yuhao Liu, Jinyuan Jia, Youjun Zhao, Rynson W. H. Lau,
- Abstract要約: 既存の視点に基づく画像編集手法ではパノラマの空間構造をモデル化できない。
一つの編集中心の設計にパノラマ生成と編集をブリッジする統合幾何認識フレームワークであるWorld-Shaperを提案する。
本手法はSOTA法と比較して, 幾何的整合性, 編集精度, テキスト制御性に優れる。
- 参考スコア(独自算出の注目度): 57.174341220144605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being able to edit panoramic images is crucial for creating realistic 360° visual experiences. However, existing perspective-based image editing methods fail to model the spatial structure of panoramas. Conventional cube-map decompositions attempt to overcome this problem but inevitably break global consistency due to their mismatch with spherical geometry. Motivated by this insight, we reformulate panoramic editing directly in the equirectangular projection (ERP) domain and present World-Shaper, a unified geometry-aware framework that bridges panoramic generation and editing within a single editing-centric design. To overcome the scarcity of paired data, we adopt a generate-then-edit paradigm, where controllable panoramic generation serves as an auxiliary stage to synthesize diverse paired examples for supervised editing learning. To address geometric distortion, we introduce a geometry-aware learning strategy that explicitly enforces position-aware shape supervision and implicitly internalizes panoramic priors through progressive training. Extensive experiments on our new benchmark, PEBench, demonstrate that our method achieves superior geometric consistency, editing fidelity, and text controllability compared to SOTA methods, enabling coherent and flexible 360° visual world creation with unified editing control. Code, model, and data will be released at our project page: https://world-shaper-project.github.io/
- Abstract(参考訳): パノラマ画像を編集できることは、リアルな360度視覚体験を作るのに不可欠である。
しかし、既存の視点に基づく画像編集手法ではパノラマの空間構造をモデル化できない。
従来の立方体写像分解はこの問題を克服しようとするが、球面幾何学とのミスマッチのため、必然的に大域的一貫性を損なう。
この知見により,パノラマ生成と編集を単一の編集中心設計でブリッジする統一幾何認識フレームワークであるERPドメインと現在のWorld-Shaperのパノラマ編集を再構築する。
ペアデータの不足を克服するために、制御可能なパノラマ生成が補助的な段階として機能し、教師あり編集学習のための多様なペア化例を合成するジェネレーション・then-editパラダイムを採用する。
幾何学的歪みに対処するために,位置認識型形状監視を明示的に実施し,プログレッシブトレーニングを通じてパノラマ前兆を暗黙的に内部化する幾何学的学習戦略を導入する。
新しいベンチマークPEBenchでは,SOTA法よりも優れた幾何整合性,編集精度,テキスト制御性を実現し,コヒーレントでフレキシブルな360度ビジュアルワールド作成を可能にした。
コード、モデル、データは、プロジェクトのページでリリースされます。
関連論文リスト
- Dragging with Geometry: From Pixels to Geometry-Guided Image Editing [42.176957681367185]
幾何学誘導型ドラッグベース画像編集手法であるGeoDragを提案する。
ジオドラグは3次元幾何学と2次元空間先行を共同で符号化する統一された変位場に基づいており、コヒーレントで高忠実で構造に一貫性のある編集を可能にしている。
論文 参考訳(メタデータ) (2025-09-30T03:53:11Z) - Follow-Your-Shape: Shape-Aware Image Editing via Trajectory-Guided Region Control [52.87568958372421]
Follow-Your-Shapeは、トレーニング不要でマスクなしのフレームワークで、オブジェクト形状の正確かつ制御可能な編集をサポートする。
インバージョンとデノナイジングパスのトークン単位の速度差を比較することで,TDM(Torjectory Divergence Map)を算出する。
本手法は、特に大規模な形状変更を必要とするタスクにおいて、優れた編集性と視覚的忠実性を実現する。
論文 参考訳(メタデータ) (2025-08-11T16:10:00Z) - SphereDrag: Spherical Geometry-Aware Panoramic Image Editing [53.87789202723925]
SphereDragは,球面形状の知識を利用した新しいパノラマ編集フレームワークである。
具体的には、適応的再射(AR)は不連続性に対処するために適応的な球面回転を使い、GCTA(Great-circle trajectory adjust)は運動軌跡をより正確に追跡する。
また、パノラマ編集ベンチマークであるPanoBenchを構築し、複数のオブジェクトと多様なスタイルを含む複雑な編集タスクを含む、標準化された評価フレームワークを提供する。
論文 参考訳(メタデータ) (2025-06-13T15:13:09Z) - SINE: Semantic-driven Image-based NeRF Editing with Prior-guided Editing
Field [37.8162035179377]
我々は,1つの画像でニューラルラディアンスフィールドを編集できる,新しい意味駆動型NeRF編集手法を提案する。
この目的を達成するために,3次元空間における微細な幾何学的・テクスチャ的編集を符号化する事前誘導編集場を提案する。
本手法は,1枚の編集画像のみを用いた写真リアルな3D編集を実現し,実世界の3Dシーンにおけるセマンティックな編集の限界を押し上げる。
論文 参考訳(メタデータ) (2023-03-23T13:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。