論文の概要: Inpaint4Drag: Repurposing Inpainting Models for Drag-Based Image Editing via Bidirectional Warping
- arxiv url: http://arxiv.org/abs/2509.04582v1
- Date: Thu, 04 Sep 2025 18:04:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.37947
- Title: Inpaint4Drag: Repurposing Inpainting Models for Drag-Based Image Editing via Bidirectional Warping
- Title(参考訳): Inpaint4Drag:双方向ワープによるドラッグベース画像編集のための塗装モデルの再検討
- Authors: Jingyi Lu, Kai Han,
- Abstract要約: Inpaint4Dragは、ドラッグベースの編集をピクセル空間の双方向のワープと画像のインペイントに分解する新しいフレームワークである。
本手法は512×512の解像度でリアルタイム・ワープ・プレビュー(0.01秒)と効率的なインペイント(0.3秒)を実現する。
- 参考スコア(独自算出の注目度): 17.05562746375872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drag-based image editing has emerged as a powerful paradigm for intuitive image manipulation. However, existing approaches predominantly rely on manipulating the latent space of generative models, leading to limited precision, delayed feedback, and model-specific constraints. Accordingly, we present Inpaint4Drag, a novel framework that decomposes drag-based editing into pixel-space bidirectional warping and image inpainting. Inspired by elastic object deformation in the physical world, we treat image regions as deformable materials that maintain natural shape under user manipulation. Our method achieves real-time warping previews (0.01s) and efficient inpainting (0.3s) at 512x512 resolution, significantly improving the interaction experience compared to existing methods that require minutes per edit. By transforming drag inputs directly into standard inpainting formats, our approach serves as a universal adapter for any inpainting model without architecture modification, automatically inheriting all future improvements in inpainting technology. Extensive experiments demonstrate that our method achieves superior visual quality and precise control while maintaining real-time performance. Project page: https://visual-ai.github.io/inpaint4drag/
- Abstract(参考訳): ドラッグベースの画像編集は、直感的な画像操作のための強力なパラダイムとして登場した。
しかし、既存のアプローチは主に生成モデルの潜在空間を操作することに依存しており、限られた精度、遅延したフィードバック、モデル固有の制約をもたらす。
そこで我々は、ドラッグベースの編集をピクセル空間の双方向のワープと画像のインペイントに分解する新しいフレームワークInpaint4Dragを提案する。
物理的世界における弾性物体の変形にインスパイアされた画像領域を,ユーザ操作時の自然形状を維持する変形可能な材料として扱う。
提案手法は512×512の解像度でリアルタイムのワーププレビュー(0.01秒)と効率の良いインペイント(0.3秒)を実現し,編集に数分を要する既存の方法と比較して,インタラクションエクスペリエンスを著しく向上させる。
ドラッグ入力を直接標準的なインペイント形式に変換することで,アーキテクチャ変更なしに任意のインペイントモデルの汎用アダプタとして機能し,将来のインペイント技術のすべての改善を自動継承する。
広汎な実験により,実時間性能を維持しながら,より優れた視覚的品質と高精度な制御を実現することができた。
プロジェクトページ: https://visual-ai.github.io/inpaint4drag/
関連論文リスト
- InstaInpaint: Instant 3D-Scene Inpainting with Masked Large Reconstruction Model [46.67494008720215]
InstaInpaintは、0.4秒以内に2Dインペイントの提案から3Dシーンのインペイントを生成するフレームワークである。
一般化, テクスチュラル整合性, 幾何学的正当性を改善するいくつかの重要な設計を解析し, 同定する。
InstaInpaintは、2つの標準ベンチマークで最先端のパフォーマンスを維持しながら、従来の方法から1000倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2025-06-12T17:59:55Z) - OmniPaint: Mastering Object-Oriented Editing via Disentangled Insertion-Removal Inpainting [54.525583840585305]
我々はオブジェクトの削除と挿入を相互依存プロセスとして再概念化する統合フレームワークであるOmniPaintを紹介した。
我々の新しいCFDメトリクスは、コンテキスト整合性とオブジェクト幻覚の堅牢で参照不要な評価を提供する。
論文 参考訳(メタデータ) (2025-03-11T17:55:27Z) - FramePainter: Endowing Interactive Image Editing with Video Diffusion Priors [64.54220123913154]
本稿では,画像から映像への効率のよい生成問題としてFramePainterを紹介した。
軽量のスパース制御エンコーダのみを使用して編集信号を注入する。
従来の最先端の手法をはるかに少ないトレーニングデータで上回ります。
論文 参考訳(メタデータ) (2025-01-14T16:09:16Z) - BrushEdit: All-In-One Image Inpainting and Editing [76.93556996538398]
BrushEditは、インペイントベースの命令誘導画像編集パラダイムである。
本研究では,MLLMとデュアルブランチ画像の描画モデルを統合することで,自由形式の命令編集を可能にするシステムを提案する。
本フレームワークは,MLLMとインパインティングモデルを効果的に組み合わせ,7つの指標で優れた性能を実現する。
論文 参考訳(メタデータ) (2024-12-13T17:58:06Z) - FastDrag: Manipulate Anything in One Step [20.494157877241665]
本稿では,FastDragというワンステップのドラッグベースの画像編集手法を導入し,編集プロセスの高速化を図る。
この革新は1段階の遅延セマンティック最適化を実現し、編集速度を大幅に向上させる。
私たちのFastDragはDragBenchデータセットで検証されています。
論文 参考訳(メタデータ) (2024-05-24T17:59:26Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。