論文の概要: End-To-End Underwater Video Enhancement: Dataset and Model
- arxiv url: http://arxiv.org/abs/2403.11506v1
- Date: Mon, 18 Mar 2024 06:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 16:26:41.706621
- Title: End-To-End Underwater Video Enhancement: Dataset and Model
- Title(参考訳): 水中映像のエンド・ツー・エンド化:データセットとモデル
- Authors: Dazhao Du, Enhan Li, Lingyu Si, Fanjiang Xu, Jianwei Niu,
- Abstract要約: 水中ビデオエンハンスメント(UVE)は、水中ビデオの可視性とフレーム品質を改善することを目的としている。
既存の手法は主に、各フレームを独立して拡張する画像強調アルゴリズムの開発に重点を置いている。
この研究は、私たちの知識に対するUVEの総合的な探索である。
- 参考スコア(独自算出の注目度): 6.153714458213646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater video enhancement (UVE) aims to improve the visibility and frame quality of underwater videos, which has significant implications for marine research and exploration. However, existing methods primarily focus on developing image enhancement algorithms to enhance each frame independently. There is a lack of supervised datasets and models specifically tailored for UVE tasks. To fill this gap, we construct the Synthetic Underwater Video Enhancement (SUVE) dataset, comprising 840 diverse underwater-style videos paired with ground-truth reference videos. Based on this dataset, we train a novel underwater video enhancement model, UVENet, which utilizes inter-frame relationships to achieve better enhancement performance. Through extensive experiments on both synthetic and real underwater videos, we demonstrate the effectiveness of our approach. This study represents the first comprehensive exploration of UVE to our knowledge. The code is available at https://anonymous.4open.science/r/UVENet.
- Abstract(参考訳): 水中ビデオエンハンスメント(UVE)は、水中ビデオの視認性とフレーム品質の向上を目的としており、海洋調査と探査に大きな影響を及ぼす。
しかし、既存の手法は主に、各フレームを独立して拡張する画像強調アルゴリズムの開発に重点を置いている。
UVEタスク用に特別に調整された、教師付きデータセットとモデルがない。
そこで,このギャップを埋めるために,地上トルス・レファレンス・ビデオと組み合わせた840種類の水中ビデオからなる,合成水中ビデオ強調(SUVE)データセットを構築した。
このデータセットに基づいて、フレーム間の関係を利用してより優れたエンハンスメント性能を実現する新しい水中ビデオエンハンスメントモデルUVENetを訓練する。
人工水中ビデオと実水中ビデオの両方に関する広範な実験を通じて、我々のアプローチの有効性を実証した。
この研究は、私たちの知識に対するUVEの総合的な探索である。
コードはhttps://anonymous.4open.science/r/UVENetで公開されている。
関連論文リスト
- Enhance-A-Video: Better Generated Video for Free [57.620595159855064]
本稿では,DiTをベースとしたビデオのコヒーレンスと品質を高めるためのトレーニング不要な手法を提案する。
我々のアプローチは、リトレーニングや微調整なしに、ほとんどのDiTベースのビデオ生成フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2025-02-11T12:22:35Z) - VideoWorld: Exploring Knowledge Learning from Unlabeled Videos [119.35107657321902]
この研究は、深層生成モデルが視覚入力のみから複雑な知識を学習できるかどうかを考察する。
我々は、未ラベルのビデオデータに基づいて訓練された自動回帰ビデオ生成モデルであるVideoWorldを開発し、ビデオベースのGoとロボット制御タスクにおける知識獲得能力をテストする。
論文 参考訳(メタデータ) (2025-01-16T18:59:10Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - UnDIVE: Generalized Underwater Video Enhancement Using Generative Priors [9.438388237767105]
水中ビデオの強化のための2段階フレームワークを提案する。
第1段階では、ラベルなしデータから生成前を学習するために、微分拡散記述モデルを用いている。
第2段階では、この前者は空間拡張のための物理ベースの画像定式化に組み込まれる。
提案手法は,低解像度の高解像度水中ビデオのリアルタイム・計算効率な処理を可能にする。
論文 参考訳(メタデータ) (2024-11-08T11:16:36Z) - Video Instruction Tuning With Synthetic Data [84.64519990333406]
ビデオ命令追従のための高品質な合成データセット、すなわちLLaVA-Video-178Kを作成する。
このデータセットには、詳細なキャプション、オープンエンド質問回答(QA)、複数選択QAといった重要なタスクが含まれている。
このデータセットをトレーニングすることにより、既存の視覚的インストラクションチューニングデータと組み合わせて、新しいビデオLMMであるLLaVA-Videoを導入する。
論文 参考訳(メタデータ) (2024-10-03T17:36:49Z) - What Matters in Detecting AI-Generated Videos like Sora? [51.05034165599385]
合成ビデオと現実世界のビデオのギャップは、まだ未発見のままだ。
本研究では,現在最先端のAIモデルであるStable Video Diffusionによって生成された実世界の映像を比較した。
我々のモデルは、訓練中にSoraのビデオに露出することなく、Soraが生成した映像を高精度に検出することができる。
論文 参考訳(メタデータ) (2024-06-27T23:03:58Z) - UVEB: A Large-scale Benchmark and Baseline Towards Real-World Underwater Video Enhancement [17.98919244870724]
最初の大規模高解像度水中ビデオ強調ベンチマーク(UVEB)を構築した。
1,308対のビデオシーケンスと453,000以上の高解像度のUHD(Ultra-High-Definition)4Kフレームペアを含んでいる。
UVE-Netは、現在のフレーム情報を畳み込みカーネルに変換し、隣接するフレームに渡して効率的なフレーム間情報交換を行う。
論文 参考訳(メタデータ) (2024-04-22T19:29:12Z) - Separated Attention: An Improved Cycle GAN Based Under Water Image Enhancement Method [0.0]
我々は、損失関数を改良した最先端のサイクルGANモデルのサイクル一貫した学習手法を利用した。
我々は、ベンチマークしたEnhancing Underwater Visual Perceptionデータセット上で、修正された損失関数を用いてCycle GANモデルを訓練した。
アップグレードされた画像は、従来のモデルによるより良い結果を提供し、さらに水中ナビゲーション、ポーズ推定、サリエンシ予測、物体の検出と追跡を行う。
論文 参考訳(メタデータ) (2024-04-11T11:12:06Z) - InternVideo: General Video Foundation Models via Generative and
Discriminative Learning [52.69422763715118]
動的および複雑なビデオレベルの理解タスクのための一般的なビデオ基盤モデルであるInternVideoを提案する。
InternVideoは、事前学習対象として、マスク付きビデオモデリングとビデオ言語コントラスト学習を効率的に探索する。
InternVideoは、ビデオアクション認識/検出、ビデオ言語アライメント、オープンワールドビデオアプリケーションなど、39のビデオデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-06T18:09:49Z) - Perceptual underwater image enhancement with deep learning and physical
priors [35.37760003463292]
本稿では,2つの知覚強調モデルを提案する。
トレーニングデータの欠如により, 物理的先行とデータ駆動的手がかりを融合したハイブリッド水中画像合成モデルが提案され, トレーニングデータを合成する。
実験結果から,提案手法は実環境および合成水中データセット上でのいくつかの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-08-21T22:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。