論文の概要: FlowAlign: Trajectory-Regularized, Inversion-Free Flow-based Image Editing
- arxiv url: http://arxiv.org/abs/2505.23145v4
- Date: Sun, 27 Jul 2025 15:39:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 14:15:46.636251
- Title: FlowAlign: Trajectory-Regularized, Inversion-Free Flow-based Image Editing
- Title(参考訳): FlowAlign: Trajectory-regularized, Inversion-free Flow-based ImageEditing
- Authors: Jeongsol Kim, Yeobin Hong, Jonghyun Park, Jong Chul Ye,
- Abstract要約: FlowAlignは、最適な制御ベースの軌道制御による一貫した画像編集のためのインバージョンフリーなフローベースフレームワークである。
我々の終点正規化は、編集プロンプトとのセマンティックアライメントのバランスと、軌道に沿ったソース画像との構造的整合性を示す。
FlowAlignは、ソース保存と編集の制御性の両方において、既存のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 47.908940130654535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent inversion-free, flow-based image editing methods such as FlowEdit leverages a pre-trained noise-to-image flow model such as Stable Diffusion 3, enabling text-driven manipulation by solving an ordinary differential equation (ODE). While the lack of exact latent inversion is a core advantage of these methods, it often results in unstable editing trajectories and poor source consistency. To address this limitation, we propose {\em FlowAlign}, a novel inversion-free flow-based framework for consistent image editing with optimal control-based trajectory control. Specifically, FlowAlign introduces source similarity at the terminal point as a regularization term to promote smoother and more consistent trajectories during the editing process. Notably, our terminal point regularization is shown to explicitly balance semantic alignment with the edit prompt and structural consistency with the source image along the trajectory. Furthermore, FlowAlign naturally supports reverse editing by simply reversing the ODE trajectory, highliting the reversible and consistent nature of the transformation. Extensive experiments demonstrate that FlowAlign outperforms existing methods in both source preservation and editing controllability.
- Abstract(参考訳): 近年のインバージョンフリーなフローベース画像編集手法であるFlowEditでは、Stable Diffusion 3のような事前訓練されたノイズ対イメージフローモデルを活用し、通常の微分方程式(ODE)を解くことでテキスト駆動の操作を可能にする。
正確な潜伏反転の欠如はこれらの手法のコア・アドバンテージであるが、しばしば不安定な編集軌道とソースの整合性が低下する。
この制限に対処するために、最適な制御に基づくトラジェクトリ制御による一貫した画像編集のための新しいインバージョンフリーなフローベースフレームワークである {\em FlowAlign} を提案する。
具体的には、FlowAlignは、編集プロセス中によりスムーズで一貫性のある軌道を促進するために、終点におけるソースの類似性を正規化用語として導入する。
特に、我々の端末点規則化は、編集プロンプトとのセマンティックアライメントと、軌道に沿ったソース画像との構造的整合を明示的にバランスさせることが示される。
さらに、FlowAlignは、ODE軌道を単純に反転させることで、変換の可逆性と一貫性のある性質を高くすることで、リバース編集を自然にサポートする。
大規模な実験では、FlowAlignはソースの保存性と編集性の両方において既存のメソッドよりも優れています。
関連論文リスト
- FlowBypass: Rectified Flow Trajectory Bypass for Training-Free Image Editing [10.304374060580828]
トレーニング不要の画像編集は、その効率性とトレーニングデータからの独立性に注目が集まっている。
この問題に対処する以前の試みでは、一般的にバックボーン固有の機能操作を採用し、一般的な適用性を制限していた。
本稿では, インバージョンと再構成軌道を直接接続するバイパスを構成する, 整形流れを基盤とした, 新規かつ解析的なフレームワークであるFlowBypassを提案する。
論文 参考訳(メタデータ) (2026-02-02T08:37:00Z) - SNR-Edit: Structure-Aware Noise Rectification for Inversion-Free Flow-Based Editing [18.5465888954825]
フローベース生成モデルを用いたインバージョンフリー画像編集は、一般的なインバージョンベースパイプラインに挑戦する。
適応雑音制御による忠実な潜在軌道補正を実現するためのトレーニングフリーフレームワークであるSNR-Editを紹介する。
論文 参考訳(メタデータ) (2026-01-27T04:24:21Z) - On Exact Editing of Flow-Based Diffusion Models [97.0633397035926]
本研究では,フローベース編集を既知ソースによって駆動される分散変換問題として再構成する条件付き速度補正(CVC)を提案する。
CVCは、双対パースペクティブな速度変換機構を導入することにより、分配間変換における速度の役割を再考する。
我々は,CVCが優れた忠実度,セマンティックアライメント,多種多様なタスクに対する信頼性の高い編集動作を一貫して達成していることを示す。
論文 参考訳(メタデータ) (2025-12-30T06:29:20Z) - SplitFlow: Flow Decomposition for Inversion-Free Text-to-Image Editing [15.234877788378563]
整流流モデルは, 安定したサンプリング軌道と高忠実度出力により, 画像生成におけるデファクトスタンダードとなっている。
強力な生成能力にもかかわらず、画像編集タスクには限界がある。
近年の取り組みでは、ソースとターゲットの分布を直接ODEベースのアプローチでインバージョンせずにマッピングする試みが行われている。
本稿では,これらの制約に対応するために,インバージョンフリーな定式化に基づくフロー分解・集約フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-29T21:12:58Z) - EditInfinity: Image Editing with Binary-Quantized Generative Models [64.05135380710749]
画像編集のためのバイナリ量子化生成モデルのパラメータ効率適応について検討する。
具体的には、画像編集のためのバイナリ量子化生成モデルであるEmphInfinityを適応させるEditInfinityを提案する。
テキストの修正と画像スタイルの保存を促進させる,効率的かつ効果的な画像反転機構を提案する。
論文 参考訳(メタデータ) (2025-10-23T05:06:24Z) - FlowCycle: Pursuing Cycle-Consistent Flows for Text-based Editing [12.424207508842192]
本研究では,新しいインバージョンフリーかつフローベース編集フレームワークであるFlowCycleを提案する。
本研究では,FlowCycleが最先端手法よりも優れた編集品質と一貫性を実現することを示す。
論文 参考訳(メタデータ) (2025-10-23T04:58:29Z) - Follow-Your-Shape: Shape-Aware Image Editing via Trajectory-Guided Region Control [52.87568958372421]
Follow-Your-Shapeは、トレーニング不要でマスクなしのフレームワークで、オブジェクト形状の正確かつ制御可能な編集をサポートする。
インバージョンとデノナイジングパスのトークン単位の速度差を比較することで,TDM(Torjectory Divergence Map)を算出する。
本手法は、特に大規模な形状変更を必要とするタスクにおいて、優れた編集性と視覚的忠実性を実現する。
論文 参考訳(メタデータ) (2025-08-11T16:10:00Z) - Training-free Geometric Image Editing on Diffusion Models [53.38549950608886]
画像内の物体が再配置、再配向、あるいは再形成されるような幾何学的画像編集の課題に取り組む。
本稿では、オブジェクト変換、ソース領域のインペイント、ターゲット領域の洗練を分離する分離パイプラインを提案する。
塗装と精錬は、トレーニングフリーの拡散アプローチであるFreeFineを使って実装されている。
論文 参考訳(メタデータ) (2025-07-31T07:36:00Z) - FlowDirector: Training-Free Flow Steering for Precise Text-to-Video Editing [2.7248421583285265]
FlowDirectorは、新しいインバージョンフリーのビデオ編集フレームワークである。
我々のフレームワークは、編集プロセスをデータ空間の直接進化としてモデル化する。
局所的かつ制御可能な編集を実現するために,注意誘導型マスキング機構を導入する。
論文 参考訳(メタデータ) (2025-06-05T13:54:40Z) - Solving Inverse Problems with FLAIR [59.02385492199431]
フローベースの潜在生成モデルは、驚くべき品質の画像を生成でき、テキスト・ツー・イメージ生成も可能である。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models [20.46531356084352]
事前訓練されたテキスト・トゥ・イメージ(T2I)拡散/フローモデルを用いて実際の画像を編集する場合、しばしば画像が対応するノイズマップに逆転する。
本稿では、インバージョンフリー、最適化フリー、モデル非依存のT2Iフローモデルのテキストベースの編集方法であるFlowEditを紹介する。
論文 参考訳(メタデータ) (2024-12-11T18:50:29Z) - Unveil Inversion and Invariance in Flow Transformer for Versatile Image Editing [43.97960454977206]
本稿では,フロートランスを用いた拡散インバージョンと分散制御について解析する。
本稿では,まず速度推定を洗練し,残り誤差を補償する2段階逆転法を提案する。
この機構は、剛性および非剛性操作を許容しながら、非ターゲット内容の同時保存を可能にする。
論文 参考訳(メタデータ) (2024-11-24T13:48:16Z) - Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - Taming Rectified Flow for Inversion and Editing [57.3742655030493]
FLUXやOpenSoraのような定流拡散変換器は、画像生成やビデオ生成の分野で優れた性能を発揮している。
その堅牢な生成能力にもかかわらず、これらのモデルは不正確さに悩まされることが多い。
本研究では,修正流の逆流過程における誤差を軽減し,インバージョン精度を効果的に向上する訓練自由サンプリング器RF-rを提案する。
論文 参考訳(メタデータ) (2024-11-07T14:29:02Z) - Rolling Shutter Correction with Intermediate Distortion Flow Estimation [55.59359977619609]
本稿では,グローバルシャッタ(GS)からRSへの歪み流を直接推定することにより,ローリングシャッタ(RS)歪み画像を補正することを提案する。
既存の手法は通常、RSからGSへの非歪流を用いて補正を行う。
本稿では,歪み流を直接推定し,後方ワープ操作でRS像を補正する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-09T14:40:54Z) - Inversion-Free Image Editing with Natural Language [18.373145158518135]
InfEdit(Inversion-free editing)は、厳密な意味的変化と非厳密な意味的変化の両面において、一貫性と忠実な編集を可能にする。
InfEditは、様々な編集タスクで強力なパフォーマンスを示し、また、1つのA40で3秒以内のシームレスなワークフローを維持し、リアルタイムアプリケーションの可能性を示している。
論文 参考訳(メタデータ) (2023-12-07T18:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。