論文の概要: Self-Contrastive Learning based Semi-Supervised Radio Modulation
Classification
- arxiv url: http://arxiv.org/abs/2203.15932v1
- Date: Tue, 29 Mar 2022 22:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:39:32.325685
- Title: Self-Contrastive Learning based Semi-Supervised Radio Modulation
Classification
- Title(参考訳): 半教師付き無線変調分類に基づく自己コントラスト学習
- Authors: Dongxin Liu, Peng Wang, Tianshi Wang, and Tarek Abdelzaher
- Abstract要約: 本稿では,自動変調分類(AMC)のための半教師付き学習フレームワークを提案する。
自己教師付きコントラスト学習事前学習ステップを用いてラベル付き信号データを慎重に利用することにより,少ないラベル付きデータに対して高い性能を実現する。
公開データセットを用いた半教師付きフレームワークの性能評価を行った。
- 参考スコア(独自算出の注目度): 6.089994098441994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a semi-supervised learning framework that is new in being
designed for automatic modulation classification (AMC). By carefully utilizing
unlabeled signal data with a self-supervised contrastive-learning pre-training
step, our framework achieves higher performance given smaller amounts of
labeled data, thereby largely reducing the labeling burden of deep learning. We
evaluate the performance of our semi-supervised framework on a public dataset.
The evaluation results demonstrate that our semi-supervised approach
significantly outperforms supervised frameworks thereby substantially enhancing
our ability to train deep neural networks for automatic modulation
classification in a manner that leverages unlabeled data.
- Abstract(参考訳): 本稿では,自動変調分類(amc)用に設計された半教師付き学習フレームワークを提案する。
自己教師付きコントラスト学習前学習ステップでラベルなし信号データを慎重に活用することにより、少ないラベル付きデータ量で高いパフォーマンスを実現し、ディープラーニングのラベル付け負担を大幅に軽減する。
我々は,公開データセット上での半教師付きフレームワークの性能評価を行う。
評価の結果, 半教師付きアプローチは教師付きフレームワークを著しく上回り, ラベルのないデータを活用する方法で, ディープニューラルネットワークによる自動変調分類の訓練能力を大幅に向上させることがわかった。
関連論文リスト
- Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Confidence-Guided Data Augmentation for Deep Semi-Supervised Training [0.9968241071319184]
特徴空間の最も困難な領域からの学習を強調する半教師付き学習設定のための新しいデータ拡張手法を提案する。
CIFAR-100とSTL-10の2つのベンチマークRGBデータセットを用いて実験を行い、提案手法が精度とロバスト性の観点から分類性能を向上させることを示す。
論文 参考訳(メタデータ) (2022-09-16T21:23:19Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - MUSCLE: Strengthening Semi-Supervised Learning Via Concurrent
Unsupervised Learning Using Mutual Information Maximization [29.368950377171995]
我々は、教師なし学習と半教師なし学習を併用するために、相互情報に基づく教師なし・半教師付き並行学習(MUSCLE)を導入する。
MUSCLEはニューラルネットワークのスタンドアロントレーニングスキームとして使用することができ、他の学習手法にも組み込むことができる。
提案手法は,CIFAR-10,CIFAR-100,Mini-Imagenetなど,いくつかの標準ベンチマークにおいて,その性能に優れることを示す。
論文 参考訳(メタデータ) (2020-11-30T23:01:04Z) - Robust Disentanglement of a Few Factors at a Time [5.156484100374058]
変分オートエンコーダ(VAE)の整合性向上のための人口ベーストレーニング(PBT)を導入する。
PBT-VAEトレーニングでは、教師なしのモデルスコアとしてUnsupervised Disentanglement Ranking (UDR)を使用し、この方法でトレーニングされたモデルが、生成因子のサブセットのみを一貫して切り離す傾向を示す。
複数のデータセットとメトリクスをまたいで、最先端の教師なしのアンハンジメント性能とロバストネスを著しく改善したことを示す。
論文 参考訳(メタデータ) (2020-10-26T12:34:23Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Semi-supervised ASR by End-to-end Self-training [18.725686837244265]
半教師付きASRのためのエンドツーエンドシステムを用いた自己学習手法を提案する。
我々は、現在モデルと教師なし発話のミニバッチ上に擬似ラベルを反復的に生成し、擬似ラベルを使用して教師付きデータを即時モデル更新する。
提案手法は,データ拡張を伴う慎重に訓練されたベースシステムに対して14.4%の相対的なWER改善を実現し,ベースシステムとオラクルシステム間の性能ギャップを50%削減する。
論文 参考訳(メタデータ) (2020-01-24T18:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。