論文の概要: Good Noise Makes Good Edits: A Training-Free Diffusion-Based Video Editing with Image and Text Prompts
- arxiv url: http://arxiv.org/abs/2506.12520v1
- Date: Sat, 14 Jun 2025 14:23:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.407423
- Title: Good Noise Makes Good Edits: A Training-Free Diffusion-Based Video Editing with Image and Text Prompts
- Title(参考訳): 良いノイズが良い編集をしてくれる: 画像とテキストのプロンプトによるトレーニング不要の拡散ベースのビデオ編集
- Authors: Saemee Choi, Sohyun Jeong, Jaegul Choo, Jinhee Kim,
- Abstract要約: 画像とテキストの両方に条件付けされた、最初のゼロショットでトレーニング不要なビデオ編集手法であるImEditを提案する。
提案手法では,コヒーレントかつ高精度な編集を行うためのノイズマップを構築するために,$rho$-startサンプリングと拡張二重マスキングを導入する。
- 参考スコア(独自算出の注目度): 32.8811551866063
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose ImEdit, the first zero-shot, training-free video editing method conditioned on both images and text. The proposed method introduces $\rho$-start sampling and dilated dual masking to construct well-structured noise maps for coherent and accurate edits. We further present zero image guidance, a controllable negative prompt strategy, for visual fidelity. Both quantitative and qualitative evaluations show that our method outperforms state-of-the-art methods across all metrics.
- Abstract(参考訳): 画像とテキストの両方に条件付けされた、最初のゼロショットでトレーニング不要なビデオ編集手法であるImEditを提案する。
提案手法では,コヒーレントで正確な編集を行うために,高構造なノイズマップを構築するために,$\rho$-startサンプリングと拡張二重マスキングを導入する。
さらに、視覚的忠実度に対する制御可能な負のプロンプト戦略であるゼロ画像ガイダンスを提示する。
定量評価と定性評価の両方により,本手法はすべての指標において最先端の手法より優れていることが示された。
関連論文リスト
- TurboEdit: Text-Based Image Editing Using Few-Step Diffusion Models [53.757752110493215]
テキストベースの一般的な編集フレームワーク – 編集フレンドリーなDDPM-noiseインバージョンアプローチ – に注目します。
高速サンプリング法への適用を解析し、その失敗を視覚的アーティファクトの出現と編集強度の不足という2つのクラスに分類する。
そこで我々は,新しいアーティファクトを導入することなく,効率よく編集の規模を拡大する疑似誘導手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T17:27:28Z) - Zero-Shot Video Editing through Adaptive Sliding Score Distillation [51.57440923362033]
本研究は,オリジナルビデオコンテンツの直接操作を容易にする,ビデオベースのスコア蒸留の新たなパラダイムを提案する。
本稿では,グローバルとローカルの両方の動画ガイダンスを取り入れた適応スライディングスコア蒸留方式を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:33:59Z) - Diffusion Model-Based Image Editing: A Survey [46.244266782108234]
様々な画像生成や編集作業のための強力なツールとして,拡散モデルが登場している。
本稿では,画像編集のための拡散モデルを用いた既存手法の概要について述べる。
テキスト誘導画像編集アルゴリズムの性能を更に評価するために,系統的なベンチマークであるEditEvalを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:07:09Z) - StyleDiffusion: Prompt-Embedding Inversion for Text-Based Editing [115.49488548588305]
画像の編集のために、事前訓練された拡散モデルの驚くべき能力を活用することに重点が置かれている。
彼らはモデルを微調整するか、事前訓練されたモデルの潜在空間で画像を反転させる。
選択された地域に対する不満足な結果と、非選択された地域における予期せぬ変化の2つの問題に悩まされている。
論文 参考訳(メタデータ) (2023-03-28T00:16:45Z) - Zero-shot Image-to-Image Translation [57.46189236379433]
手動のプロンプトを使わずに元の画像を保存できる画像から画像への変換法であるpix2pix-zeroを提案する。
本稿では,拡散過程全体を通して入力画像の相互注意マップを維持することを目的とした,相互注意誘導を提案する。
本手法では,これらの編集のための追加のトレーニングを必要とせず,既存のテキスト・画像拡散モデルを直接使用することができる。
論文 参考訳(メタデータ) (2023-02-06T18:59:51Z) - Fine-grained Image Editing by Pixel-wise Guidance Using Diffusion Models [4.855820180160146]
本稿では,画像の拡散に基づく新しい画像編集フレームワークを提案する。
提案手法は,品質と速度を編集するGAN法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-05T04:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。