論文の概要: WaterWave: Bridging Underwater Image Enhancement into Video Streams via Wavelet-based Temporal Consistency Field
- arxiv url: http://arxiv.org/abs/2512.05492v1
- Date: Fri, 05 Dec 2025 07:34:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.938649
- Title: WaterWave: Bridging Underwater Image Enhancement into Video Streams via Wavelet-based Temporal Consistency Field
- Title(参考訳): ウォーターウェーブ:ウェーブレットを用いた時間一貫性フィールドによる映像ストリームへの水中画像のブリッジ化
- Authors: Qi Zhu, Jingyi Zhang, Naishan Zheng, Wei Yu, Jinghao Zhang, Deyi Ji, Feng Zhao,
- Abstract要約: その結果,WaterWaveはシングルイメージの水中機能拡張によって生成したビデオの品質を大幅に向上させることがわかった。
提案手法は,UOSTrack や MAT などの下流水中追跡タスクにおいて高い可能性を示す。
- 参考スコア(独自算出の注目度): 39.2537000708326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater video pairs are fairly difficult to obtain due to the complex underwater imaging. In this case, most existing video underwater enhancement methods are performed by directly applying the single-image enhancement model frame by frame, but a natural issue is lacking temporal consistency. To relieve the problem, we rethink the temporal manifold inherent in natural videos and observe a temporal consistency prior in dynamic scenes from the local temporal frequency perspective. Building upon the specific prior and no paired-data condition, we propose an implicit representation manner for enhanced video signals, which is conducted in the wavelet-based temporal consistency field, WaterWave. Specifically, under the constraints of the prior, we progressively filter and attenuate the inconsistent components while preserving motion details and scenes, achieving a natural-flowing video. Furthermore, to represent temporal frequency bands more accurately, an underwater flow correction module is designed to rectify estimated flows considering the transmission in underwater scenes. Extensive experiments demonstrate that WaterWave significantly enhances the quality of videos generated using single-image underwater enhancements. Additionally, our method demonstrates high potential in downstream underwater tracking tasks, such as UOSTrack and MAT, outperforming the original video by a large margin, i.e., 19.7% and 9.7% on precise respectively.
- Abstract(参考訳): 水中ビデオペアは複雑な水中イメージングのため、入手がかなり難しい。
この場合、既存のビデオ水中強調法のほとんどは、フレームごとのシングルイメージ強化モデルフレームを直接適用することで行われるが、自然問題として時間的一貫性が欠如している。
問題を解消するために,自然ビデオに固有の時間的多様体を再考し,局所時間的周波数の観点から動的シーンに先行する時間的一貫性を観察する。
特定の事前条件とペアデータ条件に基づいて、ウェーブレットに基づく時間的整合性フィールドであるWaterWaveで実行される拡張ビデオ信号の暗黙的な表現方法を提案する。
具体的には、前者の制約の下で、動きの詳細やシーンを保存しながら、不整合成分を段階的にフィルタリングし、減衰させ、自然に流れるビデオを実現する。
さらに、時間周波数帯域をより正確に表現するために、水中のシーンの伝送を考慮した推定流れの修正を行う水中流補正モジュールを設計する。
大規模な実験により、WaterWaveはシングルイメージの水中強化によって生成されたビデオの品質を大幅に向上することが示された。
さらに,本手法は,UOSTrack や MAT などの下流水中追跡タスクにおいて,それぞれ精度の高い 19.7% と 9.7% の差でオリジナル動画よりも高い性能を示した。
関連論文リスト
- DiTVR: Zero-Shot Diffusion Transformer for Video Restoration [48.97196894658511]
DiTVRはゼロショットビデオ復元フレームワークで、拡散トランスフォーマーと軌跡を意識した注意と流れ一貫したサンプルを結合する。
我々の注意機構は、光流路に沿ってトークンを整列させ、特に時間力学に最も敏感な重要な層に重点を置いている。
フローガイドされたサンプリング装置は、低周波帯域にのみデータの一貫性を注入し、キャッシュを加速させながら高周波事前保存を行う。
論文 参考訳(メタデータ) (2025-08-11T09:54:45Z) - WaterFlow: Learning Fast & Robust Watermarks using Stable Diffusion [46.10882190865747]
WaterFlowは、学習した潜伏依存の透かしに基づいて、高忠実度視覚透かしのための高速かつ極めて堅牢なアプローチである。
WaterFlowは、一般的な堅牢性に対して最先端のパフォーマンスを示し、難しい組み合わせ攻撃に対して効果的に防御できる最初の方法である。
論文 参考訳(メタデータ) (2025-04-15T23:27:52Z) - Buffer Anytime: Zero-Shot Video Depth and Normal from Image Priors [54.8852848659663]
Buffer Anytimeは、ビデオから深さと正規マップ(幾何バッファと呼ばれる)を推定するためのフレームワークです。
時間的整合性制約を持つ単一画像の先行値を活用することによって,高品質なビデオバッファ推定を実証する。
論文 参考訳(メタデータ) (2024-11-26T09:28:32Z) - UnDIVE: Generalized Underwater Video Enhancement Using Generative Priors [9.438388237767105]
水中ビデオの強化のための2段階フレームワークを提案する。
第1段階では、ラベルなしデータから生成前を学習するために、微分拡散記述モデルを用いている。
第2段階では、この前者は空間拡張のための物理ベースの画像定式化に組み込まれる。
提案手法は,低解像度の高解像度水中ビデオのリアルタイム・計算効率な処理を可能にする。
論文 参考訳(メタデータ) (2024-11-08T11:16:36Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Time Is MattEr: Temporal Self-supervision for Video Transformers [72.42240984211283]
我々は、時間的ダイナミクスをよりよく学習するために、ビデオモデルのための単純で効果的な自己教師型タスクを設計する。
ビデオフレームの時間順序を余分な自己監督として学習し、ランダムにシャッフルされたフレームを低信頼出力に強制する。
様々なビデオ行動認識タスクにおいて,本手法の有効性と最先端のビデオ変換器との互換性を実証する。
論文 参考訳(メタデータ) (2022-07-19T04:44:08Z) - Intrinsic Temporal Regularization for High-resolution Human Video
Synthesis [59.54483950973432]
時間整合性は、画像処理パイプラインをビデオドメインに拡張する上で重要である。
フレームジェネレーターを介して本質的信頼度マップを推定し,運動推定を調節する,本質的な時間正規化方式を提案する。
我々は、本質的な時間的規制をシングルイメージジェネレータに適用し、強力な「Internet」が512Times512$の人間のアクションビデオを生成します。
論文 参考訳(メタデータ) (2020-12-11T05:29:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。