論文の概要: CLAPP: Contrastive Language-Audio Pre-training in Passive Underwater
Vessel Classification
- arxiv url: http://arxiv.org/abs/2401.02099v2
- Date: Mon, 15 Jan 2024 05:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 23:50:05.276040
- Title: CLAPP: Contrastive Language-Audio Pre-training in Passive Underwater
Vessel Classification
- Title(参考訳): CLAPP:パッシブ水中容器分類におけるコントラスト言語-オーディオ事前学習
- Authors: Zeyu Li, Jingsheng Gao, Tong Yu, Suncheng Xiang, Jiacheng Ruan, Ting
Liu, Yuzhuo Fu
- Abstract要約: 本稿では,新しいモデルであるCLAPP(Contrastive Language-Audio Pre-Training in Underwater Vessel Classification)を紹介する。
我々の目標は、海洋データセットから得られた広範囲の血管オーディオと血管状態テキストペアを使用してニューラルネットワークをトレーニングすることである。
CLAPPは、生の血管オーディオデータから直接学習し、利用可能であれば、慎重にキュレートされたラベルから学習することができる。
- 参考スコア(独自算出の注目度): 25.07379013457703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing research on audio classification faces challenges in recognizing
attributes of passive underwater vessel scenarios and lacks well-annotated
datasets due to data privacy concerns. In this study, we introduce CLAPP
(Contrastive Language-Audio Pre-training in Passive Underwater Vessel
Classification), a novel model. Our aim is to train a neural network using a
wide range of vessel audio and vessel state text pairs obtained from an
oceanship dataset. CLAPP is capable of directly learning from raw vessel audio
data and, when available, from carefully curated labels, enabling improved
recognition of vessel attributes in passive underwater vessel scenarios.
Model's zero-shot capability allows predicting the most relevant vessel state
description for a given vessel audio, without directly optimizing for the task.
Our approach aims to solve 2 challenges: vessel audio-text classification and
passive underwater vessel audio attribute recognition. The proposed method
achieves new state-of-the-art results on both Deepship and Shipsear public
datasets, with a notable margin of about 7%-13% for accuracy compared to prior
methods on zero-shot task.
- Abstract(参考訳): 既存のオーディオ分類の研究は、受動的水中容器のシナリオの属性を認識することの難しさに直面し、データプライバシの懸念による十分な注釈付きデータセットが欠如している。
本研究では,新しいモデルclapp(contrastive language-audio pre-training in passive underwater vessel classification)を提案する。
本研究の目的は,オーシャンシップデータセットから得られた広い範囲の船舶音声と船舶状態テキストペアを用いてニューラルネットワークを訓練することである。
CLAPPは、生の血管オーディオデータから直接学習することができ、利用可能であれば、慎重にキュレートされたラベルから、受動的水中血管シナリオにおける血管属性の認識を改善することができる。
Modelのゼロショット機能は、タスクを直接最適化することなく、与えられた船体オーディオの最も関連性の高い船体状態記述を予測できる。
本研究の目的は,血管内オーディオテキスト分類と受動的水中オーディオ属性認識という2つの課題を解決することである。
提案手法はdeepshipとshipsearの両方のパブリックデータセットで最新の結果を得ることができ、ゼロショットタスクの以前の方法と比較して精度が7%-13%とかなり低い。
関連論文リスト
- Real Acoustic Fields: An Audio-Visual Room Acoustics Dataset and Benchmark [65.79402756995084]
Real Acoustic Fields (RAF)は、複数のモードから実際の音響室データをキャプチャする新しいデータセットである。
RAFは密集した室内音響データを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2024-03-27T17:59:56Z) - WhaleNet: a Novel Deep Learning Architecture for Marine Mammals Vocalizations on Watkins Marine Mammal Sound Database [49.1574468325115]
textbfWhaleNet (Wavelet Highly Adaptive Learning Ensemble Network) は海洋哺乳動物の発声を分類するための高度な深層アンサンブルアーキテクチャである。
既存のアーキテクチャよりも8-10%の精度で分類精度を向上し、分類精度は9,7.61%である。
論文 参考訳(メタデータ) (2024-02-20T11:36:23Z) - Leveraging Citizen Science for Flood Extent Detection using Machine
Learning Benchmark Dataset [0.9029386959445269]
我々は、アメリカ本土とバングラデシュ内の約36,000平方キロメートルの地域をカバーする、既知の洪水イベントの間に、ラベル付きの水域範囲と浸水地域の範囲を作成します。
また、データセットをオープンソース化し、データセットに基づいたオープンコンペティションを開催して、コミュニティ生成モデルを使用した洪水範囲検出を迅速にプロトタイプ化しました。
データセットはSentinel-1C SARデータに基づく既存のデータセットに追加され、より堅牢な洪水範囲のモデリングにつながります。
論文 参考訳(メタデータ) (2023-11-15T18:49:29Z) - The AeroSonicDB (YPAD-0523) Dataset for Acoustic Detection and
Classification of Aircraft [0.0]
本稿では,音響検出・分類システムの訓練を目的とした低空飛行航空機音のデータセットであるAeroSonicDB(YPAD-0523)を紹介する。
本稿では,ADS-Bラジオ伝送を利用して音声サンプルを受動的に収集・ラベルする手法について述べる。
データセットには18秒から60秒間の625の航空機記録が含まれており、合計8.87時間の航空機音声が記録されている。
論文 参考訳(メタデータ) (2023-11-10T19:41:10Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Learning-based estimation of in-situ wind speed from underwater
acoustics [58.293528982012255]
水中音響から風速時系列を検索するための深層学習手法を提案する。
我々のアプローチは、事前の物理知識と計算効率の両面から恩恵を受けるために、データ同化と学習ベースのフレームワークをブリッジする。
論文 参考訳(メタデータ) (2022-08-18T15:27:40Z) - Deep Learning for Surface Wave Identification in Distributed Acoustic
Sensing Data [1.7237878022600697]
実データ,複雑なDASデータを処理するための,高度にスケーラブルで効率的なアプローチを提案する。
深い教師付き学習は、人類活動によって生じる「有用な」コヒーレントな表面波を特定するために用いられる。
本手法は,地中活動と埋設センサとの相互作用を記述した解釈パターンを提供する。
論文 参考訳(メタデータ) (2020-10-15T15:53:03Z) - Real-Time target detection in maritime scenarios based on YOLOv3 model [65.35132992156942]
ウェブスクレイピングによって収集された56k以上の海洋船舶の画像からなる、新しい船舶データセットが提案されている。
Keras APIをベースとしたYOLOv3シングルステージ検出器がこのデータセット上に構築されている。
論文 参考訳(メタデータ) (2020-02-10T15:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。