論文の概要: Reproducing DragDiffusion: Interactive Point-Based Editing with Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.12393v1
- Date: Thu, 12 Feb 2026 20:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.745071
- Title: Reproducing DragDiffusion: Interactive Point-Based Editing with Diffusion Models
- Title(参考訳): 拡散モデルを用いた対話的点ベース編集によるDragDiffusionの再現
- Authors: Ali Subhan, Ashir Raza,
- Abstract要約: DragDiffusionは、インタラクティブなポイントベースの画像編集のための拡散に基づく方法である。
この研究は、著者がリリースした実装とDragBenchベンチマークを用いたDragDiffusionの研究を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DragDiffusion is a diffusion-based method for interactive point-based image editing that enables users to manipulate images by directly dragging selected points. The method claims that accurate spatial control can be achieved by optimizing a single diffusion latent at an intermediate timestep, together with identity-preserving fine-tuning and spatial regularization. This work presents a reproducibility study of DragDiffusion using the authors' released implementation and the DragBench benchmark. We reproduce the main ablation studies on diffusion timestep selection, LoRA-based fine-tuning, mask regularization strength, and UNet feature supervision, and observe close agreement with the qualitative and quantitative trends reported in the original work. At the same time, our experiments show that performance is sensitive to a small number of hyperparameter assumptions, particularly the optimized timestep and the feature level used for motion supervision, while other components admit broader operating ranges. We further evaluate a multi-timestep latent optimization variant and find that it does not improve spatial accuracy while substantially increasing computational cost. Overall, our findings support the central claims of DragDiffusion while clarifying the conditions under which they are reliably reproducible. Code is available at https://github.com/AliSubhan5341/DragDiffusion-TMLR-Reproducibility-Challenge.
- Abstract(参考訳): DragDiffusionは、インタラクティブなポイントベースの画像編集のための拡散ベースの方法であり、ユーザーは選択したポイントを直接ドラッグすることで画像を操作できる。
この手法は, 単一拡散潜水剤を中間段階に最適化し, 恒常化, 微調整, 空間正則化を同時に行うことにより, 正確な空間制御を実現することができると主張している。
本研究は,著者がリリースしたDragBenchベンチマークを用いて,DragDiffusionの再現性について検討した。
本研究は,拡散時間ステップ選択,LORAに基づく微調整,マスク正規化強度,UNet特徴監督に関する主要なアブレーション研究を再現し,原著で報告された質的,定量的な傾向との密接な一致を観察する。
同時に、我々の実験では、性能が少数のハイパーパラメータ仮定、特に、動作監視に使用される最適化された時間ステップと特徴レベルに敏感であることを示し、他のコンポーネントはより広い操作範囲を許容している。
さらに,複数段階の潜時最適化モデルの評価を行い,空間的精度は向上せず,計算コストを大幅に増大させることを示した。
以上より,本研究はDragDiffusionの中心的主張を支持するとともに,再現性が確実な条件を明らかにした。
コードはhttps://github.com/AliSubhan5341/DragDiffusion-TMLR-Reproducibility-Challengeで入手できる。
関連論文リスト
- Test-time scaling of diffusions with flow maps [68.79792714591564]
テスト時の拡散モデルを改善するための一般的なレシピは、報酬の勾配を拡散そのものの力学に導入することである。
フローマップを直接扱うことで,簡単な解を提案する。
本研究では, 流図と流速場の関係を利用して, 従来のテスト時間法よりも精度の高いフローマップトラジェクトリ・ティルティング (FMTT) アルゴリズムを構築した。
論文 参考訳(メタデータ) (2025-11-27T18:44:12Z) - Continuous-time Discrete-space Diffusion Model for Recommendation [25.432419904462694]
CDRecは、新しいContinuous-time Discrete-space Diffusion Recommendationフレームワークである。
これは推奨精度と計算効率の両方において優れている。
実世界のデータセットの実験は、推奨精度と計算効率の両方においてCDRecの優れた性能を示す。
論文 参考訳(メタデータ) (2025-11-15T09:06:57Z) - Morphing Through Time: Diffusion-Based Bridging of Temporal Gaps for Robust Alignment in Change Detection [51.56484100374058]
既存の変更検出ネットワークを変更することなく空間的・時間的ロバスト性を改善するモジュールパイプラインを導入する。
拡散モジュールは、大きな外観ギャップをブリッジする中間変形フレームを合成し、RoMaは段階的に対応を推定できる。
LEVIR-CD、WHU-CD、DSIFN-CDの実験は、登録精度と下流変化検出の両方において一貫した利得を示した。
論文 参考訳(メタデータ) (2025-11-11T08:40:28Z) - TAG:Tangential Amplifying Guidance for Hallucination-Resistant Diffusion Sampling [53.61290359948953]
タンジェンシャル増幅誘導(TAG)は、下層の拡散モデルを変更することなく、軌道信号のみで動作する。
この誘導過程を1次テイラー展開を利用して定式化する。
TAGは、最小限の計算加算で拡散サンプリング忠実度を改善する、プラグアンドプレイのアーキテクチャに依存しないモジュールである。
論文 参考訳(メタデータ) (2025-10-06T06:53:29Z) - Authentic Discrete Diffusion Model [72.31371542619121]
認証離散拡散(ADD)フレームワークは、従来の擬似離散的アプローチを再定義する。
ADDはフロートエンコードされたワンホットクラスデータを直接使用して拡散入力を再構成する。
実験により、ADDはベースラインと比較して分類タスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-01T15:51:10Z) - DINTR: Tracking via Diffusion-based Interpolation [12.130669304428565]
本研究は,トラッキングタスクを定式化するための拡散に基づく新しい手法を提案する。
我々のInterpolation TrackeR(DINTR)は、将来性のある新しいパラダイムを示し、5つの指標表現にまたがる7つのベンチマークにおいて優れた乗法を実現する。
論文 参考訳(メタデータ) (2024-10-14T00:41:58Z) - Collaborative Feedback Discriminative Propagation for Video Super-Resolution [66.61201445650323]
ビデオ超解像法(VSR)の主な成功は、主に空間情報と時間情報を探索することに由来する。
不正確なアライメントは通常、重要なアーティファクトを備えたアライメント機能につながる。
伝搬モジュールは同じタイムステップ機能のみを前方または後方に伝播する。
論文 参考訳(メタデータ) (2024-04-06T22:08:20Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。