論文の概要: Large Scale Radio Frequency Signal Classification
- arxiv url: http://arxiv.org/abs/2207.09918v1
- Date: Wed, 20 Jul 2022 14:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:20:52.442251
- Title: Large Scale Radio Frequency Signal Classification
- Title(参考訳): 大規模無線周波数信号の分類
- Authors: Luke Boegner, Manbir Gulati, Garrett Vanhoy, Phillip Vallance, Bradley
Comar, Silvija Kokalj-Filipovic, Craig Lennon, Robert D. Miller
- Abstract要約: 53種類の信号から合成した500万個のサンプルからなるSig53データセットについて紹介する。
また、このデータセットを生成するのに使える信号処理機械学習ツールキットであるTorchSigを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing datasets used to train deep learning models for narrowband radio
frequency (RF) signal classification lack enough diversity in signal types and
channel impairments to sufficiently assess model performance in the real world.
We introduce the Sig53 dataset consisting of 5 million synthetically-generated
samples from 53 different signal classes and expertly chosen impairments. We
also introduce TorchSig, a signals processing machine learning toolkit that can
be used to generate this dataset. TorchSig incorporates data handling
principles that are common to the vision domain, and it is meant to serve as an
open-source foundation for future signals machine learning research. Initial
experiments using the Sig53 dataset are conducted using state of the art (SoTA)
convolutional neural networks (ConvNets) and Transformers. These experiments
reveal Transformers outperform ConvNets without the need for additional
regularization or a ConvNet teacher, which is contrary to results from the
vision domain. Additional experiments demonstrate that TorchSig's
domain-specific data augmentations facilitate model training, which ultimately
benefits model performance. Finally, TorchSig supports on-the-fly synthetic
data creation at training time, thus enabling massive scale training sessions
with virtually unlimited datasets.
- Abstract(参考訳): narrowband radio frequency(rf)信号分類のためのディープラーニングモデルのトレーニングに用いられる既存のデータセットは、実世界のモデル性能を十分に評価するために、信号タイプやチャネル障害の多様性が不十分である。
53種類の信号から合成した500万個のサンプルと専門的に選択された障害からなるSig53データセットを紹介した。
また、このデータセットを生成するのに使用できる信号処理機械学習ツールキットであるtorchsigも紹介する。
TorchSigはビジョンドメインに共通するデータ処理の原則を取り入れており、将来のシグナル機械学習研究のためのオープンソース基盤として機能することを意図している。
sig53データセットを用いた最初の実験は、state of the art (sota) convolutional neural networks (convnets)とtransformersを用いて行われた。
これらの実験により、トランスフォーマーは、視覚領域の結果に反する追加の正規化やConvNetの教師を必要とせずに、ConvNetよりも優れています。
さらなる実験により、torchsigのドメイン固有のデータ拡張によってモデルトレーニングが促進されることが示され、最終的にはモデルパフォーマンスが向上する。
最後にtorchsigは、トレーニング時にオンザフライ合成データ生成をサポートし、事実上無制限のデータセットで大規模トレーニングセッションを可能にする。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - EMGTFNet: Fuzzy Vision Transformer to decode Upperlimb sEMG signals for
Hand Gestures Recognition [0.1611401281366893]
本稿では,手動ジェスチャー認識を行うために,EMGTFNetと呼ばれるファジィニューラルブロック(FNB)を用いた視覚変換器(ViT)アーキテクチャを提案する。
提案モデルの精度は49種類の手ジェスチャーからなるNinaProデータベースを用いて検証した。
論文 参考訳(メタデータ) (2023-09-23T18:55:26Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Convolutional Neural Networks for the classification of glitches in
gravitational-wave data streams [52.77024349608834]
我々は、高度LIGO検出器のデータから過渡ノイズ信号(グリッチ)と重力波を分類する。
どちらも、Gravity Spyデータセットを使用して、スクラッチからトレーニングされた、教師付き学習アプローチのモデルを使用します。
また、擬似ラベルの自動生成による事前学習モデルの自己教師型アプローチについても検討する。
論文 参考訳(メタデータ) (2023-03-24T11:12:37Z) - Large Scale Radio Frequency Wideband Signal Detection & Recognition [0.0]
53種類の信号から550万の合成標本を合成したWidebandSig53データセットを提案する。
我々は、WBSig53データセットのオープンソースでカスタマイズ可能な生成、拡張、処理のためのTorchSig信号処理機械学習ツールキットを拡張した。
論文 参考訳(メタデータ) (2022-11-04T13:24:53Z) - Self-Supervised RF Signal Representation Learning for NextG Signal
Classification with Deep Learning [5.624291722263331]
自己教師付き学習は、無線周波数(RF)信号自体から有用な表現を学習することを可能にする。
自己教師型学習による信号表現の学習により,AMRのサンプル効率(精度向上に必要なラベル付きサンプル数)を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-07T02:07:03Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Surgical Mask Detection with Convolutional Neural Networks and Data
Augmentations on Spectrograms [8.747840760772268]
人間の声のサンプルにおける手術用マスク検出の2値分類タスクに対するデータ拡張の効果を示す。
結果、ComParEのベースラインのほとんどがパフォーマンスに優れていたことが判明した。
論文 参考訳(メタデータ) (2020-08-11T09:02:47Z) - A Big Data Enabled Channel Model for 5G Wireless Communication Systems [71.93009775340234]
本稿では,ビッグデータ解析,特に無線通信およびチャネルモデリングにおける機械学習アルゴリズムの様々な応用について検討する。
本稿では,ビッグデータと機械学習を利用した無線チャネルモデルフレームワークを提案する。
提案するチャネルモデルは、フィードフォワードニューラルネットワーク(FNN)やラジアル基底関数ニューラルネットワーク(RBF-NN)を含む、人工ニューラルネットワーク(ANN)に基づいている。
論文 参考訳(メタデータ) (2020-02-28T05:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。