論文の概要: StreakNet-Arch: An Anti-scattering Network-based Architecture for Underwater Carrier LiDAR-Radar Imaging
- arxiv url: http://arxiv.org/abs/2404.09158v3
- Date: Tue, 01 Jul 2025 14:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 15:54:39.912453
- Title: StreakNet-Arch: An Anti-scattering Network-based Architecture for Underwater Carrier LiDAR-Radar Imaging
- Title(参考訳): StreakNet-Arch:水中キャリアLiDARレーダイメージングのためのアンチ散乱ネットワークベースアーキテクチャ
- Authors: Xuelong Li, Hongjun An, Haofei Zhao, Guangying Li, Bo Liu, Xing Wang, Guanghua Cheng, Guojun Wu, Zhe Sun,
- Abstract要約: 我々は,我々の開発した水中キャリアLiDAR-Radar(UCLR)に基づくリアルタイムエンドツーエンドバイナリ分類フレームワークであるStreakNet-Archを紹介した。
制御された水槽検証条件下では、StreakNet-Arch with Self-Attention または DBC-Attention が従来のバンドパスフィルタリングより優れている。
南シナ海におけるUCLRシステムの検証を行い,深度1000m,幅20mの3Dターゲットに対して46mmの誤差に達した。
- 参考スコア(独自算出の注目度): 44.96583097079915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce StreakNet-Arch, a real-time, end-to-end binary-classification framework based on our self-developed Underwater Carrier LiDAR-Radar (UCLR) that embeds Self-Attention and our novel Double Branch Cross Attention (DBC-Attention) to enhance scatter suppression. Under controlled water tank validation conditions, StreakNet-Arch with Self-Attention or DBC-Attention outperforms traditional bandpass filtering and achieves higher $F_1$ scores than learning-based MP networks and CNNs at comparable model size and complexity. Real-time benchmarks on an NVIDIA RTX 3060 show a constant Average Imaging Time (54 to 84 ms) regardless of frame count, versus a linear increase (58 to 1,257 ms) for conventional methods. To facilitate further research, we contribute a publicly available streak-tube camera image dataset contains 2,695,168 real-world underwater 3D point cloud data. More importantly, we validate our UCLR system in a South China Sea trial, reaching an error of 46mm for 3D target at 1,000 m depth and 20 m range. Source code and data are available at https://github.com/BestAnHongjun/StreakNet .
- Abstract(参考訳): 本稿では,自家用水中空母LiDAR-Radar(UCLR)を組み込んだリアルタイム・エンドツーエンドバイナリ分類フレームワークであるStreakNet-Archと,新規なDBC-Attention(Double Branch Cross Attention)を導入し,散乱抑制の強化を図る。
制御された水槽検証条件下では、StreakNet-Archは、自己注意またはDBC-Attentionで従来のバンドパスフィルタリングより優れ、学習ベースのMPネットワークやCNNよりも、同等のモデルサイズと複雑さでF_1$スコアを得る。
NVIDIA RTX 3060のリアルタイムベンチマークでは、フレーム数に関係なく平均撮像時間(54~84ms)が一定であるのに対して、従来の手法では線形増加(58~1,257ms)が見られた。
さらなる研究を容易にするために,2,695,168個の実世界の水中3Dポイントクラウドデータを含む,公開されているストリークチューブカメラ画像データセットをコントリビュートした。
さらに, 南シナ海におけるUCLRシステムの検証を行い, 深さ1,000m, 幅20mの3Dターゲットに対して46mmの誤差に達した。
ソースコードとデータはhttps://github.com/BestAnHongjun/StreakNetで公開されている。
関連論文リスト
- Image-Goal Navigation Using Refined Feature Guidance and Scene Graph Enhancement [28.716326030924474]
本稿では, RFSG という新しい画像ゴールナビゲーション手法を提案する。
私たちの焦点は、限られた画像データ内の目標、観測、環境の間のきめ細かいつながりを活用することにあります。
本研究では,ネットワークが多次元特徴の重要性を学習し,目標と観測特徴を融合させる空間チャネルアテンション機構を提案する。
論文 参考訳(メタデータ) (2025-03-14T01:15:24Z) - Blind Underwater Image Restoration using Co-Operational Regressor Networks [15.853520058218042]
我々は、CoRe-Nets(Co-Operational Regressor Networks)という新しい機械学習モデルを提案する。
CoRe-Netは、画像変換を担当するApprentice Regressor(AR)と、ARによって生成された画像のピーク信号-ノイズ比(PSNR)を評価し、それをARにフィードバックするMaster Regressor(MR)の2つの協調ネットワークで構成されている。
私たちの結果と提案したアプローチの最適化されたPyTorch実装はGitHubで公開されています。
論文 参考訳(メタデータ) (2024-12-05T09:15:21Z) - Sparse Multi-baseline SAR Cross-modal 3D Reconstruction of Vehicle Targets [5.6680936716261705]
本稿では,光学画像と異種レンダリングとクロスモーダル監視を統合したクロスモーダル再構成ネットワーク(CMR-Net)を提案する。
シミュレーションデータのみに基づいてトレーニングされたCMR-Netは、公開可能なシミュレーションデータセットと実測データセットの両方で、高解像度の再構築機能を示す。
論文 参考訳(メタデータ) (2024-06-06T15:18:59Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z) - Removing Diffraction Image Artifacts in Under-Display Camera via Dynamic
Skip Connection Network [80.67717076541956]
アンダーディスプレイカメラ(UDC)システムは、スマートフォン上で真のベゼルレスおよびノッチフリーの視聴体験を提供します。
典型的なUDCシステムでは、ピクセルアレイはカメラ上の入射光を減衰および回折し、画像品質の大幅な低下をもたらす。
本研究では,前述の劣化問題の解析と対処を目的とする。
論文 参考訳(メタデータ) (2021-04-19T18:41:45Z) - Non-local Channel Aggregation Network for Single Image Rain Removal [3.7679182997120066]
単一の画像雨除去問題に対処するために,非局所チャネル集約ネットワーク(NCANet)を提案する。
NCANETは、垂直方向、横方向、チャネル方向の3方向のベクトルのシーケンスとして2D雨像をモデル化する。
3つの方向から情報を集約することで、チャネルと空間の両方における長距離依存性を捉えることができます。
論文 参考訳(メタデータ) (2021-03-03T15:57:37Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - Radar+RGB Attentive Fusion for Robust Object Detection in Autonomous
Vehicles [0.5801044612920815]
提案アーキテクチャは,RGBカメラ画像とともにレーダ信号データを用いてロバスト検出ネットワークを構築することを目的としている。
BIRANetは、NuScenesデータセットの平均AP/ARを72.3/75.3%出力する。
RANetは69.6/71.9%の平均AP/ARを同じデータセットで提供する。
論文 参考訳(メタデータ) (2020-08-31T14:27:02Z) - RDAnet: A Deep Learning Based Approach for Synthetic Aperture Radar
Image Formation [0.0]
我々は、画像形成と画像処理の両方を行うディープニューラルネットワークを訓練し、SAR処理パイプラインを統合する。
その結果,従来のアルゴリズムと同等の画質のSAR画像を精度良く出力できることが示唆された。
論文 参考訳(メタデータ) (2020-01-22T18:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。