論文の概要: Reproducing DragDiffusion: Interactive Point-Based Editing with Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.12393v1
- Date: Thu, 12 Feb 2026 20:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.745071
- Title: Reproducing DragDiffusion: Interactive Point-Based Editing with Diffusion Models
- Title(参考訳): 拡散モデルを用いた対話的点ベース編集によるDragDiffusionの再現
- Authors: Ali Subhan, Ashir Raza,
- Abstract要約: DragDiffusionは、インタラクティブなポイントベースの画像編集のための拡散に基づく方法である。
この研究は、著者がリリースした実装とDragBenchベンチマークを用いたDragDiffusionの研究を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DragDiffusion is a diffusion-based method for interactive point-based image editing that enables users to manipulate images by directly dragging selected points. The method claims that accurate spatial control can be achieved by optimizing a single diffusion latent at an intermediate timestep, together with identity-preserving fine-tuning and spatial regularization. This work presents a reproducibility study of DragDiffusion using the authors' released implementation and the DragBench benchmark. We reproduce the main ablation studies on diffusion timestep selection, LoRA-based fine-tuning, mask regularization strength, and UNet feature supervision, and observe close agreement with the qualitative and quantitative trends reported in the original work. At the same time, our experiments show that performance is sensitive to a small number of hyperparameter assumptions, particularly the optimized timestep and the feature level used for motion supervision, while other components admit broader operating ranges. We further evaluate a multi-timestep latent optimization variant and find that it does not improve spatial accuracy while substantially increasing computational cost. Overall, our findings support the central claims of DragDiffusion while clarifying the conditions under which they are reliably reproducible. Code is available at https://github.com/AliSubhan5341/DragDiffusion-TMLR-Reproducibility-Challenge.
- Abstract(参考訳): DragDiffusionは、インタラクティブなポイントベースの画像編集のための拡散ベースの方法であり、ユーザーは選択したポイントを直接ドラッグすることで画像を操作できる。
この手法は, 単一拡散潜水剤を中間段階に最適化し, 恒常化, 微調整, 空間正則化を同時に行うことにより, 正確な空間制御を実現することができると主張している。
本研究は,著者がリリースしたDragBenchベンチマークを用いて,DragDiffusionの再現性について検討した。
本研究は,拡散時間ステップ選択,LORAに基づく微調整,マスク正規化強度,UNet特徴監督に関する主要なアブレーション研究を再現し,原著で報告された質的,定量的な傾向との密接な一致を観察する。
同時に、我々の実験では、性能が少数のハイパーパラメータ仮定、特に、動作監視に使用される最適化された時間ステップと特徴レベルに敏感であることを示し、他のコンポーネントはより広い操作範囲を許容している。
さらに,複数段階の潜時最適化モデルの評価を行い,空間的精度は向上せず,計算コストを大幅に増大させることを示した。
以上より,本研究はDragDiffusionの中心的主張を支持するとともに,再現性が確実な条件を明らかにした。
コードはhttps://github.com/AliSubhan5341/DragDiffusion-TMLR-Reproducibility-Challengeで入手できる。
関連論文リスト
- DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。