論文の概要: Optical Ocean Recipes: Creating Realistic Datasets to Facilitate Underwater Vision Research
- arxiv url: http://arxiv.org/abs/2509.20171v1
- Date: Wed, 24 Sep 2025 14:36:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.850063
- Title: Optical Ocean Recipes: Creating Realistic Datasets to Facilitate Underwater Vision Research
- Title(参考訳): オプティカルオーシャンレシピ:水中視覚研究を支援するリアルなデータセットの作成
- Authors: Patricia Schöntag, David Nakath, Judith Fischer, Rüdiger Röttgers, Kevin Köser,
- Abstract要約: 制御された水中条件下で現実的なデータセットを作成するためのフレームワークを提案する。
合成水やオープンウォーターとは異なり、これらのレシピは、キャリブレーションされた色と散乱添加剤を使用して、水組成が画像の外観に与える影響の反復的および制御的なテストを可能にする。
制御された環境は、水パラメータ推定、画像復元、セグメンテーション、視覚SLAM、水中画像合成など、様々な視覚タスクのための地中構造データの作成を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development and evaluation of machine vision in underwater environments remains challenging, often relying on trial-and-error-based testing tailored to specific applications. This is partly due to the lack of controlled, ground-truthed testing environments that account for the optical challenges, such as color distortion from spectrally variant light attenuation, reduced contrast and blur from backscatter and volume scattering, and dynamic light patterns from natural or artificial illumination. Additionally, the appearance of ocean water in images varies significantly across regions, depths, and seasons. However, most machine vision evaluations are conducted under specific optical water types and imaging conditions, therefore often lack generalizability. Exhaustive testing across diverse open-water scenarios is technically impractical. To address this, we introduce the \textit{Optical Ocean Recipes}, a framework for creating realistic datasets under controlled underwater conditions. Unlike synthetic or open-water data, these recipes, using calibrated color and scattering additives, enable repeatable and controlled testing of the impact of water composition on image appearance. Hence, this provides a unique framework for analyzing machine vision in realistic, yet controlled underwater scenarios. The controlled environment enables the creation of ground-truth data for a range of vision tasks, including water parameter estimation, image restoration, segmentation, visual SLAM, and underwater image synthesis. We provide a demonstration dataset generated using the Optical Ocean Recipes and briefly demonstrate the use of our system for two underwater vision tasks. The dataset and evaluation code will be made available.
- Abstract(参考訳): 水中環境におけるマシンビジョンの開発と評価は、多くの場合、特定のアプリケーションに適した試行錯誤ベースのテストに依存している。
これは、スペクトル的に変化する光の減衰による色歪み、後方散乱や体積散乱によるコントラストとぼやけの低減、自然または人工的な照明からの動的光パターンなど、光学的課題を考慮に入れた、制御された地味なテスト環境の欠如によるものである。
さらに、画像中の海水の出現は、地域、深度、季節によって大きく異なる。
しかし、ほとんどの機械ビジョン評価は特定の光学水型や撮像条件下で行われるため、一般化性に欠けることが多い。
様々なオープンウォーターシナリオにわたる排他的テストは技術的に非現実的です。
これを解決するために、制御された水中条件下で現実的なデータセットを作成するためのフレームワークである‘textit{Optical Ocean Recipes} を紹介した。
合成水やオープンウォーターとは異なり、これらのレシピは、キャリブレーションされた色と散乱添加剤を使用して、水組成が画像の外観に与える影響の反復的および制御的なテストを可能にする。
したがって、これは現実的で制御された水中シナリオでマシンビジョンを分析するためのユニークなフレームワークを提供する。
制御された環境は、水パラメータ推定、画像復元、セグメンテーション、視覚SLAM、水中画像合成など、様々な視覚タスクのための地中構造データの作成を可能にする。
光学オーシャンレシピを用いて生成した実演データセットと,2つの水中視覚タスクにおけるシステム利用の簡単な実演を行った。
データセットと評価コードは利用可能になる。
関連論文リスト
- LuxDiT: Lighting Estimation with Video Diffusion Transformer [66.60450792095901]
単一の画像やビデオからシーンライティングを推定することは、コンピュータビジョンとグラフィックスにおいて長年の課題である。
本稿では,映像拡散変換器を微調整し,視覚入力を前提としたHDR環境マップを生成するLuxDiTを提案する。
論文 参考訳(メタデータ) (2025-09-03T19:59:20Z) - Learning Underwater Active Perception in Simulation [51.205673783866146]
タービディティは、検査された構造物の正確な視覚的記録を阻止する可能性があるため、ミッション全体を危険に晒す可能性がある。
従来の研究は、濁度や後方散乱に適応する手法を導入してきた。
本研究では, 広範囲の水環境下での高品質な画像取得を実現するための, 単純かつ効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-23T06:48:38Z) - Image-Based Relocalization and Alignment for Long-Term Monitoring of Dynamic Underwater Environments [57.59857784298534]
本稿では,視覚的位置認識(VPR),特徴マッチング,画像分割を組み合わせた統合パイプラインを提案する。
本手法は, 再検討領域のロバスト同定, 剛性変換の推定, 生態系変化の下流解析を可能にする。
論文 参考訳(メタデータ) (2025-03-06T05:13:19Z) - PIGUIQA: A Physical Imaging Guided Perceptual Framework for Underwater Image Quality Assessment [59.9103803198087]
水中画像品質評価(UIQA)のための物理画像ガイド型知覚フレームワークを提案する。
水中放射移動理論を応用して、物理に基づく画像推定を統合して、これらの歪みの定量的な測定値を確立する。
提案モデルは,画像品質のスコアを正確に予測し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-20T03:31:45Z) - PHISWID: Physics-Inspired Underwater Image Dataset Synthesized from RGB-D Images [9.117162374919715]
本稿では,物理にヒントを得た水中画像データセット(PHISWID)を紹介する。
物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
我々のデータセットは水中画像処理の発展に寄与する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - SUCRe: Leveraging Scene Structure for Underwater Color Restoration [1.9490160607392462]
本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
我々は、自然光から深海環境まで様々なシナリオにおいて、我々のアプローチを定量的、質的に分析する。
論文 参考訳(メタデータ) (2022-12-18T16:53:13Z) - WaterNeRF: Neural Radiance Fields for Underwater Scenes [6.161668246821327]
我々は、物理インフォームド深度推定と色補正を可能にするために、ニューラルレイディアンス場(NeRF)の最先端技術を進めた。
提案手法であるWaterNeRFは,水中画像形成のための物理モデルを用いてパラメータを推定する。
劣化した画像と修正された水中画像と、シーンの深い深さの新たなビューを作成できる。
論文 参考訳(メタデータ) (2022-09-27T00:53:26Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。