論文の概要: Self-Training the Neurochaos Learning Algorithm
- arxiv url: http://arxiv.org/abs/2601.01146v1
- Date: Sat, 03 Jan 2026 10:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.051629
- Title: Self-Training the Neurochaos Learning Algorithm
- Title(参考訳): ニューロカオス学習アルゴリズムの自己学習
- Authors: Anusree M, Akhila Henry, Pramod P Nair,
- Abstract要約: 本研究では,この制約を克服するために,ニューロカオス学習(NL)としきい値に基づく自己学習(ST)手法を統合したハイブリッド半教師付き学習アーキテクチャを提案する。
提案した自己学習型ニューロカオス学習(NL+ST)アーキテクチャは,スタンドアロンSTモデルと比較して一貫して優れた性能向上を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In numerous practical applications, acquiring substantial quantities of labelled data is challenging and expensive, but unlabelled data is readily accessible. Conventional supervised learning methods frequently underperform in scenarios characterised by little labelled data or imbalanced datasets. This study introduces a hybrid semi-supervised learning (SSL) architecture that integrates Neurochaos Learning (NL) with a threshold-based Self-Training (ST) method to overcome this constraint. The NL architecture converts input characteristics into chaos-based ring-rate representations that encapsulate nonlinear relationships within the data, whereas ST progressively enlarges the labelled set utilising high-confidence pseudo-labelled samples. The model's performance is assessed using ten benchmark datasets and five machine learning classifiers, with 85% of the training data considered unlabelled and just 15% utilised as labelled data. The proposed Self-Training Neurochaos Learning (NL+ST) architecture consistently attains superior performance gain relative to standalone ST models, especially on limited, nonlinear and imbalanced datasets like Iris (188.66%), Wine (158.58%) and Glass Identification (110.48%). The results indicate that using chaos-based feature extraction with SSL improves generalisation, resilience, and classification accuracy in low-data contexts.
- Abstract(参考訳): 多くの実用的応用において、大量のラベル付きデータを取得することは困難で費用がかかるが、ラベル付きデータは容易にアクセス可能である。
従来の教師付き学習手法は、ラベル付けされていないデータや不均衡なデータセットによって特徴づけられるシナリオにおいて、しばしば過小評価される。
本研究では,NL(Neurochaos Learning)とST(Self-Training)メソッドを統合し,この制約を克服するハイブリッド半教師付き学習(SSL)アーキテクチャを提案する。
NLアーキテクチャは入力特性をカオスベースのリングレート表現に変換し、データ内の非線形関係をカプセル化する。
モデルのパフォーマンスは10のベンチマークデータセットと5つの機械学習分類器を使用して評価され、トレーニングデータの85%がラベル付きデータとして使用されており、15%がラベル付きデータとして使用されている。
提案された自己学習神経カオス学習(NL+ST)アーキテクチャは、特にアイリス(188.66%)、ワイン(158.58%)、ガラス識別(110.48%)のような限定的で非線形で不均衡なデータセットにおいて、スタンドアローンSTモデルと比較して一貫して優れたパフォーマンス向上を達成する。
その結果,SSLを用いたカオスベースの特徴抽出により,低データコンテキストにおける一般化,レジリエンス,分類精度が向上することが示唆された。
関連論文リスト
- Hierarchical Semi-Supervised Active Learning for Remote Sensing [20.305328912143054]
半教師付き学習(SSL)と新しい階層型アクティブ学習(HAL)を統合した階層型半教師付きアクティブラーニング(HSSAL)フレームワークを提案する。
各イテレーションでSSLは、教師付き学習と弱い自己学習を通じてラベル付きデータとラベルなしデータの両方を使用してモデルを洗練し、特徴表現の改善と不確実性推定を行う。
UCM、AID、NWPU-RESISC45を含む3つのベンチマークRSシーン分類データセットの実験は、HSSALがSSLまたはALのみのベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2025-11-22T13:25:42Z) - SST: Self-training with Self-adaptive Thresholding for Semi-supervised Learning [42.764994681999774]
SST(Self-Adaptive Thresholding)は、新しい、効果的で効率的なSSLフレームワークである。
SSTはモデルの学習進捗に基づいてクラス固有のしきい値を調整する。
Semi-SST-ViT-Hugeは競合するImageNet-1K SSLベンチマークで最高の結果を得る。
論文 参考訳(メタデータ) (2025-05-31T08:34:04Z) - How Hard is this Test Set? NLI Characterization by Exploiting Training Dynamics [49.9329723199239]
本稿では, 実例と非実例を手作業で構築することなく, 挑戦的なテストセットを自動生成する手法を提案する。
一般的なNLIデータセットのテストセットを,トレーニングダイナミクスを利用した3つの難易度に分類する。
我々の評価法がトレーニングセットに適用された場合、トレーニング対象データのごく一部でトレーニングされたモデルは、フルデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-04T13:39:21Z) - Label-free Monitoring of Self-Supervised Learning Progress [1.2289361708127877]
自己教師付き学習(SSL)は、階層化されていないデータを利用してハイレベルな埋め込み空間を学習する効果的な方法である。
本研究では,非競合データの埋め込みに適用可能ないくつかの評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-10T16:04:10Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。