論文の概要: Pre-trained Models for Sonar Images
- arxiv url: http://arxiv.org/abs/2108.01111v1
- Date: Mon, 2 Aug 2021 18:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 23:17:46.762179
- Title: Pre-trained Models for Sonar Images
- Title(参考訳): ソナー画像の事前学習モデル
- Authors: Matias Valdenegro-Toro and Alan Preciado-Grijalva and Bilal Wehbe
- Abstract要約: このデータセットでトレーニングされたマリン・デブリ・ターンテーブルデータセットを提示し、トレーニング済みニューラルネットワークを生成する。
Resnet 20、MobileNets、DenseNet121、SqueezeNet、MiniXception、Autoencoderを複数の入力イメージサイズでトレーニングします。
以上の結果から,両方のデータセットにおいて,事前学習したモデルが,低いサンプルで適切な分類精度を達成できる優れた特徴を生んでいることが示唆された。
- 参考スコア(独自算出の注目度): 1.7403133838762446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning and neural networks are now ubiquitous in sonar perception,
but it lags behind the computer vision field due to the lack of data and
pre-trained models specifically for sonar images. In this paper we present the
Marine Debris Turntable dataset and produce pre-trained neural networks trained
on this dataset, meant to fill the gap of missing pre-trained models for sonar
images. We train Resnet 20, MobileNets, DenseNet121, SqueezeNet, MiniXception,
and an Autoencoder, over several input image sizes, from 32 x 32 to 96 x 96, on
the Marine Debris turntable dataset. We evaluate these models using transfer
learning for low-shot classification in the Marine Debris Watertank and another
dataset captured using a Gemini 720i sonar. Our results show that in both
datasets the pre-trained models produce good features that allow good
classification accuracy with low samples (10-30 samples per class). The Gemini
dataset validates that the features transfer to other kinds of sonar sensors.
We expect that the community benefits from the public release of our
pre-trained models and the turntable dataset.
- Abstract(参考訳): 機械学習とニューラルネットワークは現在、ソナー知覚においてユビキタスだが、ソナー画像のためのデータや事前学習されたモデルがないため、コンピュータビジョン分野に遅れをとっている。
本稿では,Mine Debris Turntableデータセットを提示し,このデータセットでトレーニングしたトレーニング済みニューラルネットワークを生成し,ソナー画像の未学習モデルのギャップを埋めることを目的とした。
Resnet 20、MobileNets、DenseNet121、SqueezeNet、MiniXception、AutoencoderをMine Debrisのターンテーブルデータセット上で、32 x 32から96 x 96までの入力画像サイズでトレーニングしています。
また,gemini 720i ソナーを用いて収集したデータを用いて,低ショット分類のためのトランスファー・ラーニングを用いたモデルの評価を行った。
両データセットにおいて,事前学習したモデルが,低値 (クラス毎10~30サンプル) で良好な分類精度を達成できる優れた特徴を持つことを示す。
Geminiデータセットは、機能が他の種類のソナーセンサーに転送されることを検証する。
トレーニング済みのモデルとターンテーブルデータセットの公開リリースによるコミュニティのメリットを期待しています。
関連論文リスト
- Comparison of self-supervised in-domain and supervised out-domain transfer learning for bird species recognition [0.19183348587701113]
別のタスクを支援するために事前訓練されたモデルの重みを移すことは、現代のディープラーニングの重要な部分となっている。
本実験は,鳥種認識のためのドメイン内モデルとデータセットの有用性を実証するものである。
論文 参考訳(メタデータ) (2024-04-26T08:47:28Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Convolutional Neural Networks for the classification of glitches in
gravitational-wave data streams [52.77024349608834]
我々は、高度LIGO検出器のデータから過渡ノイズ信号(グリッチ)と重力波を分類する。
どちらも、Gravity Spyデータセットを使用して、スクラッチからトレーニングされた、教師付き学習アプローチのモデルを使用します。
また、擬似ラベルの自動生成による事前学習モデルの自己教師型アプローチについても検討する。
論文 参考訳(メタデータ) (2023-03-24T11:12:37Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Hand Pose Classification Based on Neural Networks [0.0]
本研究は,移動学習に基づく場面における片手・両手・手の存在の分類を実証するものである。
Kerasライブラリの最も単純なNNは、704個の手の動きのイメージでネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2021-08-10T09:14:51Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - The Lottery Tickets Hypothesis for Supervised and Self-supervised
Pre-training in Computer Vision Models [115.49214555402567]
事前訓練された重量は、しばしば分類、検出、セグメンテーションを含む幅広い下流タスクを増加させる。
最近の研究は、巨大モデル能力による事前学習の利点を示唆している。
本稿では,抽選券仮説(LTH)のレンズを用いて,教師付きおよび自己指導型事前学習モデルについて検討する。
論文 参考訳(メタデータ) (2020-12-12T21:53:55Z) - Application of Facial Recognition using Convolutional Neural Networks
for Entry Access Control [0.0]
本論文は,画像中の人物を入力として捉え,その人物を著者の1人か否かを分類する,教師付き分類問題の解決に焦点をあてる。
提案手法は,(1)WoodNetと呼ばれるニューラルネットワークをスクラッチから構築し,トレーニングすること,(2)ImageNetデータベース上に事前トレーニングされたネットワークを利用することで,転送学習を活用すること,の2つである。
結果は、データセット内の個人を高い精度で分類し、保持されたテストデータに対して99%以上の精度で達成する2つのモデルである。
論文 参考訳(メタデータ) (2020-11-23T07:55:24Z) - Rethinking CNN Models for Audio Classification [20.182928938110923]
ImageNet-Pretrained標準CNNモデルは、音声分類のための強力なベースラインネットワークとして使用できる。
事前学習した重量のどれがスペクトログラムの学習に役立つかを系統的に研究する。
事前訓練した重みを用いた標準モデルでは、ランダムなデンス重みを使用するよりもよいことを示す。
論文 参考訳(メタデータ) (2020-07-22T01:31:44Z) - Omni-sourced Webly-supervised Learning for Video Recognition [74.3637061856504]
ビデオ認識モデルのトレーニングにWebデータを活用するフレームワークであるOmniSourceを紹介した。
実験によると、複数のソースやフォーマットからのデータを利用することで、OmniSourceはトレーニングにおいてよりデータ効率が高い。
論文 参考訳(メタデータ) (2020-03-29T14:47:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。