論文の概要: Seabed-Net: A multi-task network for joint bathymetry estimation and seabed classification from remote sensing imagery in shallow waters
- arxiv url: http://arxiv.org/abs/2510.19329v1
- Date: Wed, 22 Oct 2025 07:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.32494
- Title: Seabed-Net: A multi-task network for joint bathymetry estimation and seabed classification from remote sensing imagery in shallow waters
- Title(参考訳): Seabed-Net:浅海域におけるリモートセンシング画像からの継手水位測定と海底分類のためのマルチタスクネットワーク
- Authors: Panagiotis Agrafiotis, Begüm Demir,
- Abstract要約: Seabed-Netは統合マルチタスクフレームワークであり、同時に水浴量測定と海底分類を予測する。
従来の経験的モデルや機械学習の回帰手法よりも一貫して優れています。
また、最先端のシングルタスクやマルチタスクベースラインと比較して、浴量計RMSEを10~30%削減する。
- 参考スコア(独自算出の注目度): 6.101839518775969
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate, detailed, and regularly updated bathymetry, coupled with complex semantic content, is essential for under-mapped shallow-water environments facing increasing climatological and anthropogenic pressures. However, existing approaches that derive either depth or seabed classes from remote sensing imagery treat these tasks in isolation, forfeiting the mutual benefits of their interaction and hindering the broader adoption of deep learning methods. To address these limitations, we introduce Seabed-Net, a unified multi-task framework that simultaneously predicts bathymetry and pixel-based seabed classification from remote sensing imagery of various resolutions. Seabed-Net employs dual-branch encoders for bathymetry estimation and pixel-based seabed classification, integrates cross-task features via an Attention Feature Fusion module and a windowed Swin-Transformer fusion block, and balances objectives through dynamic task uncertainty weighting. In extensive evaluations at two heterogeneous coastal sites, it consistently outperforms traditional empirical models and traditional machine learning regression methods, achieving up to 75\% lower RMSE. It also reduces bathymetric RMSE by 10-30\% compared to state-of-the-art single-task and multi-task baselines and improves seabed classification accuracy up to 8\%. Qualitative analyses further demonstrate enhanced spatial consistency, sharper habitat boundaries, and corrected depth biases in low-contrast regions. These results confirm that jointly modeling depth with both substrate and seabed habitats yields synergistic gains, offering a robust, open solution for integrated shallow-water mapping. Code and pretrained weights are available at https://github.com/pagraf/Seabed-Net.
- Abstract(参考訳): 正確な、詳細な、定期的に更新された水質測定は、複雑なセマンティックな内容と相まって、気候や人為的な圧力の増大に直面している浅瀬環境において必要不可欠である。
しかし、リモートセンシング画像から深度クラスまたは海底クラスを導出する既存のアプローチは、これらのタスクを分離して処理し、相互作用の相互利益を排除し、より広範なディープラーニング手法の採用を妨げる。
これらの制約に対処するために,様々な解像度のリモートセンシング画像から,水深測定と画素ベースの海底分類を同時に予測する統合マルチタスクフレームワークSeabed-Netを導入する。
Seabed-Netは、二分岐エンコーダを使用して、水浴量推定とピクセルベースの海底分類を行い、アテンション・フィーチャー・フュージョンモジュールとウィンドウ付きスウィン・トランスフォーマー・フュージョンブロックを介してクロスタスク機能を統合し、動的タスクの不確実性重み付けによって目標のバランスをとる。
2つの異種沿岸域での広範囲な評価において、従来の経験的モデルと従来の機械学習回帰手法を一貫して上回り、最大75%低いRMSEを達成する。
また、最先端のシングルタスクとマルチタスクのベースラインと比較して10~30 %減らし、海底分類精度を最大8 %改善する。
質的分析により、低コントラスト領域における空間整合性、よりシャープな生息地境界、および補正された深度バイアスがさらに示された。
これらの結果から, 海底および海底の生息地との連成モデル深度が相乗効果をもたらすことが確認された。
コードとトレーニング済みのウェイトはhttps://github.com/pagraf/Seabed-Net.orgで公開されている。
関連論文リスト
- APGNet: Adaptive Prior-Guided for Underwater Camouflaged Object Detection [22.097955383220143]
本研究では,水中環境下でカモフラージュされた物体を検出するために,APGNet(Adaptive Prior-Guided Network)を提案する。
APGNetは、ロバスト性と検出精度を高めるために、シームズアーキテクチャと新しい事前誘導機構を統合する。
提案手法は,広く用いられている評価基準の下で,15の最先端手法より優れていた。
論文 参考訳(メタデータ) (2025-10-14T01:51:44Z) - Neptune-X: Active X-to-Maritime Generation for Universal Maritime Object Detection [54.1960918379255]
Neptune-Xは、海洋オブジェクト検出のためのデータ中心の生成-選択フレームワークである。
X-to-Maritime(X-to-Maritime)は、多様で現実的な海洋シーンを合成する多モード条件生成モデルである。
提案手法は,海上シーン合成における新しいベンチマークを設定し,検出精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-09-25T04:59:02Z) - Tree-Mamba: A Tree-Aware Mamba for Underwater Monocular Depth Estimation [85.17735565146106]
水中単眼深度推定(UMDE)は水中劣化画像から高精度深度マップを推定することを目的とした重要な課題である。
我々は,水中の劣化画像から正確な単分子深度マップを推定するための,木を意識した新しいマンバ手法であるTree-Mambaを開発した。
海底深度推定ベンチマーク (BlueDepth) を構築し, 深度ラベルが信頼できる海底画像ペア38,162枚を構築した。
論文 参考訳(メタデータ) (2025-07-10T12:10:51Z) - YH-MINER: Multimodal Intelligent System for Natural Ecological Reef Metric Extraction [23.4289262373633]
海洋生物多様性と生態過程を維持するために不可欠なサンゴ礁は、エスカレートする脅威に直面している。
本研究では,YH-MINERシステムを開発し,「対象検出-意味分割-優先入力」のためのインテリジェントなフレームワークを構築した。
本システムは,88%の属レベルの分類精度を達成し,同時にコア生態指標を抽出する。
論文 参考訳(メタデータ) (2025-05-28T11:36:18Z) - Occlusion Boundary and Depth: Mutual Enhancement via Multi-Task Learning [3.4174356345935393]
単一画像から深度とOBを共同で推定する手法であるMoDOTを提案する。
MoDOTにはCASMという新しいモジュールが組み込まれている。これは、クロスアテンションとマルチスケールストリップの畳み込みを組み合わせて、中レベルのOB機能を活用する。
実験では、深度とOBを相互に推定し、MoDOTの設計の有効性を検証する。
論文 参考訳(メタデータ) (2025-05-27T14:15:19Z) - Relative Pose Estimation through Affine Corrections of Monocular Depth Priors [69.59216331861437]
本研究では,独立なアフィン(スケールとシフト)のあいまいさを明示的に考慮した相対ポーズ推定のための3つの解法を開発した。
提案する解法と古典的点ベース解法とエピポーラ制約を組み合わせたハイブリッド推定パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:58:30Z) - DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
ガウススプラッティングは、強力な深度モデルを学ぶための教師なし事前学習の目的として機能することを示す。
我々のDepthSplatは、ScanNet、RealEstate10K、DL3DVデータセットの最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - GAM-Depth: Self-Supervised Indoor Depth Estimation Leveraging a
Gradient-Aware Mask and Semantic Constraints [12.426365333096264]
本稿では,勾配認識マスクと意味制約という,2つの新しいコンポーネントをベースとしたGAM-Depthを提案する。
グラデーション対応マスクは、キー領域とテクスチャレス領域の両方の適応的かつ堅牢な監視を可能にする。
室内における自己監督深度推定のセマンティック制約の導入は、物体の境界における深度差を改善する。
論文 参考訳(メタデータ) (2024-02-22T07:53:34Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。