論文の概要: Towards Improved Imbalance Robustness in Continual Multi-Label Learning
with Dual Output Spiking Architecture (DOSA)
- arxiv url: http://arxiv.org/abs/2402.04596v1
- Date: Wed, 7 Feb 2024 05:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:56:29.966577
- Title: Towards Improved Imbalance Robustness in Continual Multi-Label Learning
with Dual Output Spiking Architecture (DOSA)
- Title(参考訳): デュアルアウトプットスパイキングアーキテクチャ(dosa)を用いた連続多段学習における不均衡ロバスト性向上に向けて
- Authors: Sourav Mishra, Shirin Dora and Suresh Sundaram
- Abstract要約: 本研究は,連続的なマルチラベル学習のための二重出力スパイクアーキテクチャ (DOSA) を提案する。
新たな不均衡認識損失関数も提案され、モデルのマルチラベル分類性能が向上した。
- 参考スコア(独自算出の注目度): 3.7039357017353214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms designed for addressing typical supervised classification problems
can only learn from a fixed set of samples and labels, making them unsuitable
for the real world, where data arrives as a stream of samples often associated
with multiple labels over time. This motivates the study of task-agnostic
continual multi-label learning problems. While algorithms using deep learning
approaches for continual multi-label learning have been proposed in the recent
literature, they tend to be computationally heavy. Although spiking neural
networks (SNNs) offer a computationally efficient alternative to artificial
neural networks, existing literature has not used SNNs for continual
multi-label learning. Also, accurately determining multiple labels with SNNs is
still an open research problem. This work proposes a dual output spiking
architecture (DOSA) to bridge these research gaps. A novel imbalance-aware loss
function is also proposed, improving the multi-label classification performance
of the model by making it more robust to data imbalance. A modified F1 score is
presented to evaluate the effectiveness of the proposed loss function in
handling imbalance. Experiments on several benchmark multi-label datasets show
that DOSA trained with the proposed loss function shows improved robustness to
data imbalance and obtains better continual multi-label learning performance
than CIFDM, a previous state-of-the-art algorithm.
- Abstract(参考訳): 典型的な教師付き分類問題に対処するために設計されたアルゴリズムは、固定されたサンプルとラベルのセットからのみ学習できるため、データは時間とともに複数のラベルに関連付けられたサンプルのストリームとして到着する現実世界には適さない。
これはタスクに依存しない連続的マルチラベル学習問題の研究を動機付ける。
近年の文献では,深層学習手法を用いた連続的多段学習のアルゴリズムが提案されているが,計算量が多い傾向がある。
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワークに代わる計算効率の良い代替手段を提供するが、既存の文献では連続的なマルチラベル学習にはSNNを使用していない。
また、SNNで複数のラベルを正確に決定することは、まだオープンな研究課題である。
この研究は、これらの研究ギャップを埋めるための二重出力スパイクアーキテクチャ(DOSA)を提案する。
また,データ不均衡に対するロバスト性を高めることにより,モデルのマルチラベル分類性能を向上させる新しい不均衡認識損失関数を提案する。
不均衡処理における損失関数の有効性を評価するため、修正F1スコアが提示される。
いくつかのベンチマークマルチラベルデータセットの実験により、提案した損失関数でトレーニングされたDOSAは、データ不均衡に対するロバスト性を向上し、従来の最先端アルゴリズムであるCIFDMよりも優れた連続マルチラベル学習性能が得られることが示された。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Informative regularization for a multi-layer perceptron RR Lyrae
classifier under data shift [3.303002683812084]
本稿では,情報正規化とアドホックなトレーニング手法に基づくスケーラブルで容易に適応可能なアプローチを提案し,シフト問題を緩和する。
提案手法は,特徴量からの知識をニューラルネットワークに組み込むことで,基礎となるデータシフト問題を管理する。
論文 参考訳(メタデータ) (2023-03-12T02:49:19Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Interpolation-based Contrastive Learning for Few-Label Semi-Supervised
Learning [43.51182049644767]
半教師付き学習(SSL)は,ラベルが限定された強力なモデルを構築する上で,有効な手法であることが長年証明されてきた。
摂動サンプルを元のものと類似した予測を強制する正規化に基づく手法が注目されている。
本稿では,学習ネットワークの埋め込みを誘導し,サンプル間の線形変化を誘導する新たな対照的な損失を提案する。
論文 参考訳(メタデータ) (2022-02-24T06:00:05Z) - Hybridization of Capsule and LSTM Networks for unsupervised anomaly
detection on multivariate data [0.0]
本稿では,Long-Short-Term-Memory(LSTM)とCapsule Networksを1つのネットワークに結合した新しいNNアーキテクチャを提案する。
提案手法は教師なし学習手法を用いて大量のラベル付きトレーニングデータを見つける際の問題を克服する。
論文 参考訳(メタデータ) (2022-02-11T10:33:53Z) - An Online Learning Algorithm for a Neuro-Fuzzy Classifier with
Mixed-Attribute Data [9.061408029414455]
General Fuzzy min-max Neural Network (GFMMNN) は、データ分類のための効率的な神経ファジィシステムの一つである。
本稿ではGFMMNNのための拡張オンライン学習アルゴリズムを提案する。
提案手法は連続的特徴と分類的特徴の両方でデータセットを処理できる。
論文 参考訳(メタデータ) (2020-09-30T13:45:36Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - COLAM: Co-Learning of Deep Neural Networks and Soft Labels via
Alternating Minimization [60.07531696857743]
2つの目的の交互最小化によるDNNとソフトラベルの共学習
本稿では,DNNとソフトラベルを相互に学習するCOLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T17:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。