論文の概要: Nearshore Underwater Target Detection Meets UAV-borne Hyperspectral Remote Sensing: A Novel Hybrid-level Contrastive Learning Framework and Benchmark Dataset
- arxiv url: http://arxiv.org/abs/2502.14495v1
- Date: Thu, 20 Feb 2025 12:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:20.495188
- Title: Nearshore Underwater Target Detection Meets UAV-borne Hyperspectral Remote Sensing: A Novel Hybrid-level Contrastive Learning Framework and Benchmark Dataset
- Title(参考訳): UAV搭載ハイパースペクトルリモートセンシングとニアショア水中目標検出:新しいハイブリッドレベルのコントラスト学習フレームワークとベンチマークデータセット
- Authors: Jiahao Qi, Chuanhong Zhou, Xingyue Liu, Chen Chen, Dehui Zhu, Kangcheng Bin, Ping Zhong,
- Abstract要約: UAV搭載ハイパースペクトルリモートセンシングは、水中目標検出(UTD)のための有望なアプローチとして登場した
近海環境におけるスペクトル歪みによって妨げられ、従来の超スペクトルUTD法の精度を損なう。
沿岸域における強靭なHUTDのための自己評価学習パラダイムとコントラスト学習を統合した新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.832892497880372
- License:
- Abstract: UAV-borne hyperspectral remote sensing has emerged as a promising approach for underwater target detection (UTD). However, its effectiveness is hindered by spectral distortions in nearshore environments, which compromise the accuracy of traditional hyperspectral UTD (HUTD) methods that rely on bathymetric model. These distortions lead to significant uncertainty in target and background spectra, challenging the detection process. To address this, we propose the Hyperspectral Underwater Contrastive Learning Network (HUCLNet), a novel framework that integrates contrastive learning with a self-paced learning paradigm for robust HUTD in nearshore regions. HUCLNet extracts discriminative features from distorted hyperspectral data through contrastive learning, while the self-paced learning strategy selectively prioritizes the most informative samples. Additionally, a reliability-guided clustering strategy enhances the robustness of learned representations.To evaluate the method effectiveness, we conduct a novel nearshore HUTD benchmark dataset, ATR2-HUTD, covering three diverse scenarios with varying water types and turbidity, and target types. Extensive experiments demonstrate that HUCLNet significantly outperforms state-of-the-art methods. The dataset and code will be publicly available at: https://github.com/qjh1996/HUTD
- Abstract(参考訳): UAV搭載ハイパースペクトルリモートセンシングは、水中目標検出(UTD)のための有望なアプローチとして登場した。
しかし、その効果は海岸付近の環境におけるスペクトル歪みによって妨げられ、これは従来の高スペクトルUTD法(HUTD)の精度を損なう。
これらの歪みはターゲットスペクトルと背景スペクトルに大きな不確実性をもたらし、検出プロセスに挑戦する。
そこで本研究では,沿岸域における強靭なHUTDのための自己評価学習パラダイムとコントラスト学習を統合した新しいフレームワークであるHyperspectral Underwater Contrastive Learning Network (HUCLNet)を提案する。
HUCLNetは、コントラスト学習を通じて歪んだハイパースペクトルデータから識別的特徴を抽出し、自己評価学習戦略は最も情報性の高いサンプルを選択的に優先順位付けする。
さらに、信頼性誘導クラスタリング戦略により、学習表現の堅牢性を高めるとともに、本手法の有効性を評価するために、水の種類や濁度、ターゲットタイプが異なる3つのシナリオを網羅した、新しいニアショアHUTDベンチマークデータセットであるATR2-HUTDを実行する。
大規模な実験により、HUCLNetは最先端の手法を大幅に上回っていることが示された。
データセットとコードは、https://github.com/qjh 1996/HUTDで公開される。
関連論文リスト
- DFCon: Attention-Driven Supervised Contrastive Learning for Robust Deepfake Detection [0.3818645814949463]
本報告では, IEEE SP Cup 2025: Deepfake Face Detection in the Wild (DFWild-Cup) へのアプローチについて述べる。
提案手法では,MaxViT,CoAtNet,EVA-02などの高度なバックボーンモデルを用いて,教師付きコントラスト損失を用いて微調整を行い,特徴分離を向上させる。
提案システムは,実環境下でのディープフェイク検出の課題に対処し,検証データセットで95.83%の精度を実現する。
論文 参考訳(メタデータ) (2025-01-28T04:46:50Z) - Progressive Cross Attention Network for Flood Segmentation using Multispectral Satellite Imagery [0.0]
ProCANetは、多スペクトルの特徴に対して、自己と横断的なメカニズムの両方を段階的に適用するディープラーニングモデルである。
IoU(Intersection over Union, IoU)スコアは0.815。
論文 参考訳(メタデータ) (2025-01-21T06:55:31Z) - Multi-Domain Features Guided Supervised Contrastive Learning for Radar Target Detection [8.706031869122917]
既存のソリューションは、統計的および深い特徴を含む、クラッタとターゲットのエコー差に基づいて、検出またはターゲットの特徴を抽出するための海溝モデルである。
本稿では,教師付きコントラスト学習(MDFG_SCL)手法を提案する。
実世界のデータセットで行った実験では、提案された浅海深度検出器は、小さな海洋目標を効果的に識別するだけでなく、様々な海洋環境において優れた検出性能を維持することが示されている。
論文 参考訳(メタデータ) (2024-12-17T07:33:07Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。