論文の概要: DynaDrag: Dynamic Drag-Style Image Editing by Motion Prediction
- arxiv url: http://arxiv.org/abs/2601.00542v1
- Date: Fri, 02 Jan 2026 02:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.505145
- Title: DynaDrag: Dynamic Drag-Style Image Editing by Motion Prediction
- Title(参考訳): DynaDrag:モーション予測による動的ドラッグスタイル画像編集
- Authors: Jiacheng Sui, Yujie Zhou, Li Niu,
- Abstract要約: そこで我々は,予測・移動フレームワークにおける最初のドラッグング手法であるDynaDragを提案する。
Motion Predictionはまずハンドルポイントの移動先を予測し、次にMotion Supervisionがそれらをドラッグする。
顔と人間のデータセットの実験は、以前の作品よりも優れていることを示している。
- 参考スコア(独自算出の注目度): 24.307929882680355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To achieve pixel-level image manipulation, drag-style image editing which edits images using points or trajectories as conditions is attracting widespread attention. Most previous methods follow move-and-track framework, in which miss tracking and ambiguous tracking are unavoidable challenging issues. Other methods under different frameworks suffer from various problems like the huge gap between source image and target edited image as well as unreasonable intermediate point which can lead to low editability. To avoid these problems, we propose DynaDrag, the first dragging method under predict-and-move framework. In DynaDrag, Motion Prediction and Motion Supervision are performed iteratively. In each iteration, Motion Prediction first predicts where the handle points should move, and then Motion Supervision drags them accordingly. We also propose to dynamically adjust the valid handle points to further improve the performance. Experiments on face and human datasets showcase the superiority over previous works.
- Abstract(参考訳): 画素レベルの画像操作を実現するために、点や軌跡を用いて画像を編集するドラッグスタイルの画像編集が広く注目を集めている。
これまでのほとんどのメソッドは移動と追跡のフレームワークに従っており、ミストラッキングとあいまいなトラッキングは避けられない難題である。
異なるフレームワークの下での他の方法は、ソースイメージとターゲット編集イメージの間の大きなギャップや、編集可能性の低下につながる不合理な中間点といった様々な問題に悩まされる。
このような問題を避けるため,予測・移動フレームワークにおける最初のドラッグング手法であるDynaDragを提案する。
DynaDragでは、モーション予測とモーションスーパービジョンが反復的に実行される。
それぞれのイテレーションで、Motion Predictionはまずハンドルポイントの移動先を予測し、次にMotion Supervisionがそれらをドラッグする。
また,有効なハンドルポイントを動的に調整し,性能を向上させることを提案する。
顔と人間のデータセットの実験は、以前の作品よりも優れていることを示している。
関連論文リスト
- MotionEdit: Benchmarking and Learning Motion-Centric Image Editing [81.28392925790568]
動き中心の画像編集のための新しいデータセットであるMotionEditを紹介する。
MotionEditは、連続ビデオから抽出されたリアルな動き変換を描写した高忠実な画像ペアを提供する。
本研究では,入力画像とモデル編集画像間の動きの流れが地中動とどのように一致しているかに基づいて,動きアライメントの報酬を計算するためにMotionNFTを提案する。
論文 参考訳(メタデータ) (2025-12-11T04:53:58Z) - Point-to-Point: Sparse Motion Guidance for Controllable Video Editing [29.888408281118846]
本稿では,映像拡散モデルに先行するリッチな動きを生かして,最も重要な動きパターンをキャプチャする,新しい動き表現,アンカートークンを提案する。
実験では、アンカートークンはより制御可能でセマンティックに整合したビデオ編集をもたらし、編集や動きの忠実さの点で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-23T03:59:59Z) - MotionFollower: Editing Video Motion via Lightweight Score-Guided Diffusion [94.66090422753126]
MotionFollowerは、ビデオモーション編集のための軽量なスコア誘導拡散モデルである。
優れたモーション編集性能を提供し、大きなカメラの動きとアクションのみをサポートする。
最新のモーション編集モデルであるMotionEditorと比較して、MotionFollowerはGPUメモリの約80%の削減を実現している。
論文 参考訳(メタデータ) (2024-05-30T17:57:30Z) - FreeDrag: Feature Dragging for Reliable Point-based Image Editing [16.833998026980087]
我々は、ポイントトラッキングの負担を軽減すべく、FreeDragという機能ドラッグ手法を提案する。
FreeDragには、アダプティブ更新によるテンプレート機能と、バックトラックによるライン検索という、2つの重要な設計が含まれている。
提案手法は既存の手法よりも優れており,様々な複雑なシナリオにおいても信頼性の高い点ベースの編集が可能である。
論文 参考訳(メタデータ) (2023-07-10T16:37:46Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。