論文の概要: Information-Preserved Blending Method for Forward-Looking Sonar
Mosaicing in Non-Ideal System Configuration
- arxiv url: http://arxiv.org/abs/2212.05216v1
- Date: Sat, 10 Dec 2022 05:53:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 16:20:55.446003
- Title: Information-Preserved Blending Method for Forward-Looking Sonar
Mosaicing in Non-Ideal System Configuration
- Title(参考訳): 非初期システム構成における前向きソナーモージングのための情報保存ブレンディング法
- Authors: Jiayi Su, Xingbin Tu, Fengzhong Qu, Yan Wei
- Abstract要約: 疑わしい情報を含む明確なFLSモザイクは、専門家が膨大な知覚データを扱うのを助けるために要求されている。
以前の作業では、FLSが理想的なシステム構成で機能しているとしか考えていなかった。
興味のある情報を保存できる新たなFLSモザイクブレンディング法を提案する。
- 参考スコア(独自算出の注目度): 2.494740426749958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forward-Looking Sonar (FLS) has started to gain attention in the field of
near-bottom close-range underwater inspection because of its high resolution
and high framerate features. Although Automatic Target Recognition (ATR)
algorithms have been applied tentatively for object-searching tasks, human
supervision is still indispensable, especially when involving critical areas. A
clear FLS mosaic containing all suspicious information is in demand to help
experts deal with tremendous perception data. However, previous work only
considered that FLS is working in an ideal system configuration, which assumes
an appropriate sonar imaging setup and the availability of accurate positioning
data. Without those promises, the intra-frame and inter-frame artifacts will
appear and degrade the quality of the final mosaic by making the information of
interest invisible. In this paper, we propose a novel blending method for FLS
mosaicing which can preserve interested information. A Long-Short Time Sliding
Window (LST-SW) is designed to rectify the local statistics of raw sonar
images. The statistics are then utilized to construct a Global Variance Map
(GVM). The GVM helps to emphasize the useful information contained in images in
the blending phase by classifying the informative and featureless pixels,
thereby enhancing the quality of final mosaic. The method is verified using
data collected in the real environment. The results show that our method can
preserve more details in FLS mosaics for human inspection purposes in practice.
- Abstract(参考訳): 前向きソナー(FLS)は、高解像度で高いフレームレート特性のため、ほぼボトムに近い近距離水中検査の分野で注目を集めている。
自動目標認識(ATR)アルゴリズムは、オブジェクト探索タスクに仮に適用されているが、特に臨界領域に関わる場合、人間の監督は依然として不可欠である。
疑わしい情報を含む明確なFLSモザイクは、専門家が膨大な知覚データを扱うのを助けるために要求されている。
しかし、以前の研究では、flsは適切なソナー撮像セットアップと正確な測位データの可用性を前提とした理想的なシステム構成でしか動作していない。
これらの約束がなければ、フレーム内およびフレーム間アーティファクトが現れ、興味のある情報が見えないようにすることで最終的なモザイクの品質が低下する。
本稿では,興味のある情報を保存できるflsモザイクのブレンド手法を提案する。
長短時間スライディングウィンドウ(lst-sw)は、生のソナー画像の局所統計を補正するために設計された。
次に統計を利用してグローバル分散マップ(gvm)を構築する。
GVMは、情報および特徴のない画素を分類することにより、ブレンディングフェーズにおける画像に含まれる有用な情報を強調し、最終的なモザイクの品質を向上させる。
本手法は実環境から収集したデータを用いて検証する。
以上の結果から,本手法は人間の検査目的のためにFLSモザイクのさらなる詳細を保存できることがわかった。
関連論文リスト
- OSMLoc: Single Image-Based Visual Localization in OpenStreetMap with Geometric and Semantic Guidances [11.085165252259042]
OSMLocは、脳にインスパイアされた単一画像の視覚的位置決め手法であり、精度、堅牢性、一般化能力を改善するための意味的および幾何学的ガイダンスを備えている。
提案したOSMLOCを検証するため,世界規模のクロスエリアとクロスコンディション(CC)のベンチマークを収集し,広範な評価を行う。
論文 参考訳(メタデータ) (2024-11-13T14:59:00Z) - $\textit{X}^2$-DFD: A framework for e${X}$plainable and e${X}$tendable Deepfake Detection [52.14468236527728]
3つのコアモジュールからなる新しいフレームワークX2$-DFDを提案する。
最初のモジュールであるモデル特徴評価(MFA)は、MLLMに固有の偽機能の検出能力を計測し、これらの機能の下位ランキングを提供する。
第2のモジュールであるStrong Feature Strengthening (SFS)は、上位機能に基づいて構築されたデータセット上でMLLMを微調整することで、検出と説明機能を強化する。
第3のモジュールであるWak Feature Supplementing (WFS)は、外部専用の機能を統合することで、低階機能における微調整MLLMの機能を改善する。
論文 参考訳(メタデータ) (2024-10-08T15:28:33Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Learning Accurate and Enriched Features for Stereo Image Super-Resolution [0.0]
ステレオ画像超解像(ステレオSR)は、代替的な視点から補完情報を組み込むことで、超解像の質を高めることを目的としている。
我々は,空間的詳細を正確に保存し,豊富なコンテキスト情報を組み込むため,MSSFNet(Mixed-scale selective fusion Network)を提案する。
MSSFNetは、定量評価と定性評価の両方において最先端のアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-23T03:34:17Z) - InstantSplat: Sparse-view SfM-free Gaussian Splatting in Seconds [91.77050739918037]
スパース画像からの新しいビュー合成(NVS)は3次元コンピュータビジョンにおいて大きく進歩している。
これはStructure-from-Motion (SfM) を用いたカメラパラメータの正確な初期推定に依存する
本研究では,スパースビュー画像から堅牢なNVSを向上するための,新規で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - AdaSfM: From Coarse Global to Fine Incremental Adaptive Structure from
Motion [48.835456049755166]
AdaSfMは粗粒度適応型SfMアプローチであり、大規模かつ挑戦的なデータセットにスケーラブルである。
当社のアプローチはまず,低コストセンサによる計測を利用して,ビューグラフの信頼性を向上させる,粗大なグローバルSfMを実現する。
本手法では,全局所再構成をグローバルSfMの座標フレームに整合させるため,しきい値適応戦略を用いる。
論文 参考訳(メタデータ) (2023-01-28T09:06:50Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - MUNet: Motion Uncertainty-aware Semi-supervised Video Object
Segmentation [31.100954335785026]
本稿では,映像オブジェクトの半教師付きセグメンテーションのための動作不確実性認識フレームワーク(MUNet)を提案する。
動作特徴と意味的特徴を効果的に融合する動き認識型空間アテンションモジュールを提案する。
トレーニングにDAVIS17のみを使用する$76.5%の$mathcalJとmathcalF$は、低データプロトコル下でのtextitSOTAメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-29T16:01:28Z) - iffDetector: Inference-aware Feature Filtering for Object Detection [70.8678270164057]
Inference-aware Feature Filtering (IFF)モジュールを導入し、現代の検出器と簡単に組み合わせることができる。
IFFは、畳み込み機能を強化するためにハイレベルなセマンティクスを活用することでクローズドループ最適化を行う。
IFFはCNNベースの物体検出器とプラグアンドプレイ方式で融合でき、計算コストのオーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2020-06-23T02:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。