論文の概要: End-To-End Underwater Video Enhancement: Dataset and Model
- arxiv url: http://arxiv.org/abs/2403.11506v1
- Date: Mon, 18 Mar 2024 06:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 16:26:41.706621
- Title: End-To-End Underwater Video Enhancement: Dataset and Model
- Title(参考訳): 水中映像のエンド・ツー・エンド化:データセットとモデル
- Authors: Dazhao Du, Enhan Li, Lingyu Si, Fanjiang Xu, Jianwei Niu,
- Abstract要約: 水中ビデオエンハンスメント(UVE)は、水中ビデオの可視性とフレーム品質を改善することを目的としている。
既存の手法は主に、各フレームを独立して拡張する画像強調アルゴリズムの開発に重点を置いている。
この研究は、私たちの知識に対するUVEの総合的な探索である。
- 参考スコア(独自算出の注目度): 6.153714458213646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater video enhancement (UVE) aims to improve the visibility and frame quality of underwater videos, which has significant implications for marine research and exploration. However, existing methods primarily focus on developing image enhancement algorithms to enhance each frame independently. There is a lack of supervised datasets and models specifically tailored for UVE tasks. To fill this gap, we construct the Synthetic Underwater Video Enhancement (SUVE) dataset, comprising 840 diverse underwater-style videos paired with ground-truth reference videos. Based on this dataset, we train a novel underwater video enhancement model, UVENet, which utilizes inter-frame relationships to achieve better enhancement performance. Through extensive experiments on both synthetic and real underwater videos, we demonstrate the effectiveness of our approach. This study represents the first comprehensive exploration of UVE to our knowledge. The code is available at https://anonymous.4open.science/r/UVENet.
- Abstract(参考訳): 水中ビデオエンハンスメント(UVE)は、水中ビデオの視認性とフレーム品質の向上を目的としており、海洋調査と探査に大きな影響を及ぼす。
しかし、既存の手法は主に、各フレームを独立して拡張する画像強調アルゴリズムの開発に重点を置いている。
UVEタスク用に特別に調整された、教師付きデータセットとモデルがない。
そこで,このギャップを埋めるために,地上トルス・レファレンス・ビデオと組み合わせた840種類の水中ビデオからなる,合成水中ビデオ強調(SUVE)データセットを構築した。
このデータセットに基づいて、フレーム間の関係を利用してより優れたエンハンスメント性能を実現する新しい水中ビデオエンハンスメントモデルUVENetを訓練する。
人工水中ビデオと実水中ビデオの両方に関する広範な実験を通じて、我々のアプローチの有効性を実証した。
この研究は、私たちの知識に対するUVEの総合的な探索である。
コードはhttps://anonymous.4open.science/r/UVENetで公開されている。
関連論文リスト
- UnDIVE: Generalized Underwater Video Enhancement Using Generative Priors [9.438388237767105]
水中ビデオの強化のための2段階フレームワークを提案する。
第1段階では、ラベルなしデータから生成前を学習するために、微分拡散記述モデルを用いている。
第2段階では、この前者は空間拡張のための物理ベースの画像定式化に組み込まれる。
提案手法は,低解像度の高解像度水中ビデオのリアルタイム・計算効率な処理を可能にする。
論文 参考訳(メタデータ) (2024-11-08T11:16:36Z) - Video Instruction Tuning With Synthetic Data [84.64519990333406]
ビデオ命令追従のための高品質な合成データセット、すなわちLLaVA-Video-178Kを作成する。
このデータセットには、詳細なキャプション、オープンエンド質問回答(QA)、複数選択QAといった重要なタスクが含まれている。
このデータセットをトレーニングすることにより、既存の視覚的インストラクションチューニングデータと組み合わせて、新しいビデオLMMであるLLaVA-Videoを導入する。
論文 参考訳(メタデータ) (2024-10-03T17:36:49Z) - What Matters in Detecting AI-Generated Videos like Sora? [51.05034165599385]
合成ビデオと現実世界のビデオのギャップは、まだ未発見のままだ。
本研究では,現在最先端のAIモデルであるStable Video Diffusionによって生成された実世界の映像を比較した。
我々のモデルは、訓練中にSoraのビデオに露出することなく、Soraが生成した映像を高精度に検出することができる。
論文 参考訳(メタデータ) (2024-06-27T23:03:58Z) - Learning Temporally Consistent Video Depth from Video Diffusion Priors [57.929828486615605]
本研究は,映像深度推定の課題に対処する。
我々は予測タスクを条件付き生成問題に再構成する。
これにより、既存のビデオ生成モデルに埋め込まれた事前の知識を活用することができる。
論文 参考訳(メタデータ) (2024-06-03T16:20:24Z) - UVEB: A Large-scale Benchmark and Baseline Towards Real-World Underwater Video Enhancement [17.98919244870724]
最初の大規模高解像度水中ビデオ強調ベンチマーク(UVEB)を構築した。
1,308対のビデオシーケンスと453,000以上の高解像度のUHD(Ultra-High-Definition)4Kフレームペアを含んでいる。
UVE-Netは、現在のフレーム情報を畳み込みカーネルに変換し、隣接するフレームに渡して効率的なフレーム間情報交換を行う。
論文 参考訳(メタデータ) (2024-04-22T19:29:12Z) - Separated Attention: An Improved Cycle GAN Based Under Water Image Enhancement Method [0.0]
我々は、損失関数を改良した最先端のサイクルGANモデルのサイクル一貫した学習手法を利用した。
我々は、ベンチマークしたEnhancing Underwater Visual Perceptionデータセット上で、修正された損失関数を用いてCycle GANモデルを訓練した。
アップグレードされた画像は、従来のモデルによるより良い結果を提供し、さらに水中ナビゲーション、ポーズ推定、サリエンシ予測、物体の検出と追跡を行う。
論文 参考訳(メタデータ) (2024-04-11T11:12:06Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - InternVideo: General Video Foundation Models via Generative and
Discriminative Learning [52.69422763715118]
動的および複雑なビデオレベルの理解タスクのための一般的なビデオ基盤モデルであるInternVideoを提案する。
InternVideoは、事前学習対象として、マスク付きビデオモデリングとビデオ言語コントラスト学習を効率的に探索する。
InternVideoは、ビデオアクション認識/検出、ビデオ言語アライメント、オープンワールドビデオアプリケーションなど、39のビデオデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-06T18:09:49Z) - Shallow-UWnet : Compressed Model for Underwater Image Enhancement [0.0]
本論文では,パフォーマンスを保ち,最新モデルよりもパラメータが少ない,浅いニューラルネットワークアーキテクチャであるtextbfShallow-UWnetを提案する。
また,合成データセットと実世界のデータセットを組み合わせることで,モデルのベンチマークを行った。
論文 参考訳(メタデータ) (2021-01-06T14:49:29Z) - Perceptual underwater image enhancement with deep learning and physical
priors [35.37760003463292]
本稿では,2つの知覚強調モデルを提案する。
トレーニングデータの欠如により, 物理的先行とデータ駆動的手がかりを融合したハイブリッド水中画像合成モデルが提案され, トレーニングデータを合成する。
実験結果から,提案手法は実環境および合成水中データセット上でのいくつかの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-08-21T22:11:34Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。