論文の概要: Self-supervised Learning for Sonar Image Classification
- arxiv url: http://arxiv.org/abs/2204.09323v1
- Date: Wed, 20 Apr 2022 08:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:44:04.882417
- Title: Self-supervised Learning for Sonar Image Classification
- Title(参考訳): ソナー画像分類のための自己教師あり学習
- Authors: Alan Preciado-Grijalva and Bilal Wehbe and Miguel Bande Firvida and
Matias Valdenegro-Toro
- Abstract要約: 自己教師付き学習は、大きなラベル付きデータセットを必要とせずに画像表現を学習するための強力なアプローチであることが証明された。
実生活ソナー画像データセットの事前学習および転送学習結果について述べる。
- 参考スコア(独自算出の注目度): 6.1947705963945845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning has proved to be a powerful approach to learn image
representations without the need of large labeled datasets. For underwater
robotics, it is of great interest to design computer vision algorithms to
improve perception capabilities such as sonar image classification. Due to the
confidential nature of sonar imaging and the difficulty to interpret sonar
images, it is challenging to create public large labeled sonar datasets to
train supervised learning algorithms. In this work, we investigate the
potential of three self-supervised learning methods (RotNet, Denoising
Autoencoders, and Jigsaw) to learn high-quality sonar image representation
without the need of human labels. We present pre-training and transfer learning
results on real-life sonar image datasets. Our results indicate that
self-supervised pre-training yields classification performance comparable to
supervised pre-training in a few-shot transfer learning setup across all three
methods. Code and self-supervised pre-trained models are be available at
https://github.com/agrija9/ssl-sonar-images
- Abstract(参考訳): 自己教師付き学習は、大きなラベル付きデータセットを必要とせずに画像表現を学習するための強力なアプローチであることが証明された。
水中ロボットにとって、ソナー画像分類のような知覚能力を改善するためにコンピュータビジョンアルゴリズムを設計することは非常に興味深い。
ソナー画像の秘密性やソナー画像の解釈が困難であることから,教師あり学習アルゴリズムを訓練するための大規模ラベル付きソナーデータセットの作成は困難である。
本研究では,3つの自己教師型学習手法(RotNet,Denoising Autoencoders,Jigsaw)による高品質なソナー画像表現の学習の可能性について検討する。
実生活ソナー画像データセットの事前学習および転送学習結果を提案する。
以上の結果から,自己教師付き事前学習は3つの方法すべてにおいて,事前教師付き学習に匹敵する分類性能を示すことが示唆された。
コードと自己教師付き事前学習モデルはhttps://github.com/agrija9/ssl-sonar-imagesで入手できる。
関連論文リスト
- Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - Motion Degeneracy in Self-supervised Learning of Elevation Angle
Estimation for 2D Forward-Looking Sonar [4.683630397028384]
本研究は, 合成画像を用いた事前学習を行なわずに, 高度角推定の安定な自己教師付き学習を実現することを目的とする。
まず,主監督信号に関連する2次元前方ソナーの運動場を解析する。
論文 参考訳(メタデータ) (2023-07-30T08:06:11Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Unified Contrastive Learning in Image-Text-Label Space [130.31947133453406]
Unified Contrastive Learning (UniCL)は、意味的に豊かだが差別的な表現を学習する効果的な方法である。
UniCLスタンドアローンは、3つの画像分類データセットにまたがる教師あり学習手法に対抗して、純粋な画像ラベルデータに関する優れた学習者である。
論文 参考訳(メタデータ) (2022-04-07T17:34:51Z) - Unsupervised Object-Level Representation Learning from Scene Images [97.07686358706397]
Object-level Representation Learning (ORL) はシーンイメージに対する新たな自己教師型学習フレームワークである。
我々の重要な洞察は、画像レベルの自己教師付き事前学習を、オブジェクトレベルの意味的対応を見つけるための事前学習として活用することである。
ORLは、複数の下流タスクにおける教師付きImageNet事前学習を超越しても、シーンイメージ上での自己教師型学習のパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2021-06-22T17:51:24Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Self supervised contrastive learning for digital histopathology [0.0]
我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
論文 参考訳(メタデータ) (2020-11-27T19:18:45Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。