論文の概要: Injecting Frame-Event Complementary Fusion into Diffusion for Optical Flow in Challenging Scenes
- arxiv url: http://arxiv.org/abs/2510.10577v1
- Date: Sun, 12 Oct 2025 12:52:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.01903
- Title: Injecting Frame-Event Complementary Fusion into Diffusion for Optical Flow in Challenging Scenes
- Title(参考訳): 混在するシーンにおける光流の拡散にフレームイベント補完核融合を注入する
- Authors: Haonan Wang, Hanyu Zhou, Haoyue Liu, Luxin Yan,
- Abstract要約: 劣化シーンでは、フレームカメラは、長時間の撮像時間と低ダイナミックレンジのため、濃密な外観飽和を提供するが、スパース境界完全性を提供する。
対照的に、イベントカメラはスパースな外観飽和を提供し、その短い撮像時間と高いダイナミックレンジは境界の完全性を高める。
フレーム浮動小数点境界融合を用いた拡散モデルに基づく新しい光フロー推定フレームワークDiff-ABFlowを提案する。
- 参考スコア(独自算出の注目度): 41.822043262920296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation has achieved promising results in conventional scenes but faces challenges in high-speed and low-light scenes, which suffer from motion blur and insufficient illumination. These conditions lead to weakened texture and amplified noise and deteriorate the appearance saturation and boundary completeness of frame cameras, which are necessary for motion feature matching. In degraded scenes, the frame camera provides dense appearance saturation but sparse boundary completeness due to its long imaging time and low dynamic range. In contrast, the event camera offers sparse appearance saturation, while its short imaging time and high dynamic range gives rise to dense boundary completeness. Traditionally, existing methods utilize feature fusion or domain adaptation to introduce event to improve boundary completeness. However, the appearance features are still deteriorated, which severely affects the mostly adopted discriminative models that learn the mapping from visual features to motion fields and generative models that generate motion fields based on given visual features. So we introduce diffusion models that learn the mapping from noising flow to clear flow, which is not affected by the deteriorated visual features. Therefore, we propose a novel optical flow estimation framework Diff-ABFlow based on diffusion models with frame-event appearance-boundary fusion.
- Abstract(参考訳): 光流量推定は従来のシーンでは有望な結果を得たが、動きのぼやけや照明不足に悩まされる高速・低照度シーンでは課題に直面している。
これらの条件は、運動特徴マッチングに必要なフレームカメラの外観飽和度と境界完全度を低下させ、テクスチャの弱化と増幅ノイズをもたらす。
劣化シーンでは、フレームカメラは、長時間の撮像時間と低ダイナミックレンジのため、濃密な外観飽和を提供するが、スパース境界完全性を提供する。
対照的に、イベントカメラはスパースな外観飽和を提供し、その短い撮像時間と高いダイナミックレンジは境界の完全性を高める。
伝統的に、既存の手法は機能融合やドメイン適応を利用して、境界完全性を改善するためにイベントを導入する。
しかし、外観的特徴は依然として悪化しており、視覚的特徴から運動場へのマッピングを学習する主に採用されている識別モデルや、与えられた視覚的特徴に基づいて運動場を生成する生成モデルに深刻な影響を与えている。
そこで我々は, ノイズフローからクリアフローへのマッピングを学習する拡散モデルを導入し, 劣化した視覚的特徴の影響を受けない。
そこで本研究では,フレームイベントの出現境界融合を伴う拡散モデルに基づく新しい光フロー推定フレームワークDiff-ABFlowを提案する。
関連論文リスト
- Fine-grained Defocus Blur Control for Generative Image Models [66.30016220484394]
現在のテキストと画像の拡散モデルは、多様な高品質な画像を生成するのに優れている。
本稿では,カメラメタデータを活用した新しいテキスト・画像拡散フレームワークを提案する。
我々のモデルは、描写されたシーンを変更することなく、より優れたきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2025-10-07T17:59:15Z) - BokehDiff: Neural Lens Blur with One-Step Diffusion [53.11429878683807]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - FlowMo: Variance-Based Flow Guidance for Coherent Motion in Video Generation [51.110607281391154]
FlowMoは、テキスト・ビデオ・モデルにおける動きコヒーレンスを高めるためのトレーニング不要のガイダンス手法である。
時間次元のパッチワイドな分散を測定して動きのコヒーレンスを推定し、サンプリング中にこの分散を動的に減少させるためにモデルを導く。
論文 参考訳(メタデータ) (2025-06-01T19:55:33Z) - Zero-TIG: Temporal Consistency-Aware Zero-Shot Illumination-Guided Low-light Video Enhancement [2.9695823613761316]
低照度と水中のビデオは視界が悪く、コントラストが低く、ノイズが高い。
既存のアプローチは通常、ペア化された基底真理に依存しており、実際性は制限され、しばしば時間的一貫性の維持に失敗する。
本稿では、Retinex理論と光フロー技術を活用したゼロショット学習手法Zero-TIGを提案する。
論文 参考訳(メタデータ) (2025-03-14T08:22:26Z) - Bokeh Diffusion: Defocus Blur Control in Text-to-Image Diffusion Models [26.79219274697864]
Bokeh Diffusionはシーン一貫性のあるbokehコントロールフレームワークである。
本稿では,合成ぼかし増量による画像の調整を行うハイブリッド・トレーニング・パイプラインを提案する。
われわれのアプローチは、フレキシブルでレンズライクなぼかし制御を可能にし、インバージョンによる実際の画像編集のような下流アプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-03-11T13:49:12Z) - DiffuEraser: A Diffusion Model for Video Inpainting [13.292164408616257]
安定拡散に基づく映像インペイントモデルであるDiffuEraserを導入し,より詳細な情報とコヒーレントな構造でマスクされた領域を埋める。
また,従来のモデルとDiffuEraserの両方の時間的受容領域を拡張し,ビデオ拡散モデルの時間的平滑化特性を活用して一貫性を高める。
論文 参考訳(メタデータ) (2025-01-17T08:03:02Z) - SMURF: Continuous Dynamics for Motion-Deblurring Radiance Fields [13.684805723485157]
シャッター露出が延長されたときにカメラの動きがわずかなため、動きのぼやけの存在は大きな課題となる。
本研究では,連続カメラの動作をモデル化する新しい手法SMURF(Sequence Motion Understanding Radiance Field)を提案する。
本モデルでは, ベンチマークデータを用いて評価を行い, 定量的かつ定性的に, 最先端の性能を示す。
論文 参考訳(メタデータ) (2024-03-12T11:32:57Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。