論文の概要: AiGAS-dEVL-RC: An Adaptive Growing Neural Gas Model for Recurrently Drifting Unsupervised Data Streams
- arxiv url: http://arxiv.org/abs/2504.05761v1
- Date: Tue, 08 Apr 2025 07:42:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:49.107989
- Title: AiGAS-dEVL-RC: An Adaptive Growing Neural Gas Model for Recurrently Drifting Unsupervised Data Streams
- Title(参考訳): AiGAS-dEVL-RC: 繰り返しドリフトする非教師付きデータストリームのための適応的成長型ニューラルガスモデル
- Authors: Maria Arostegi, Miren Nekane Bilbao, Jesus L. Lobo, Javier Del Ser,
- Abstract要約: 本研究は,急激な再帰流を処理するために,GNGアルゴリズムに基づく新しい手法を提案する。
提案手法はコンパクトだが情報的なメモリ構造を維持しており,過去の概念や再帰概念の知識を効率的に保存し,検索することができる。
繰り返し知識を活用できない他の手法とは異なり、提案手法は、教師なしドリフトデータフローに対する堅牢で効率的なオンライン学習ソリューションであることが証明されている。
- 参考スコア(独自算出の注目度): 6.7236795813629
- License:
- Abstract: Concept drift and extreme verification latency pose significant challenges in data stream learning, particularly when dealing with recurring concept changes in dynamic environments. This work introduces a novel method based on the Growing Neural Gas (GNG) algorithm, designed to effectively handle abrupt recurrent drifts while adapting to incrementally evolving data distributions (incremental drifts). Leveraging the self-organizing and topological adaptability of GNG, the proposed approach maintains a compact yet informative memory structure, allowing it to efficiently store and retrieve knowledge of past or recurring concepts, even under conditions of delayed or sparse stream supervision. Our experiments highlight the superiority of our approach over existing data stream learning methods designed to cope with incremental non-stationarities and verification latency, demonstrating its ability to quickly adapt to new drifts, robustly manage recurring patterns, and maintain high predictive accuracy with a minimal memory footprint. Unlike other techniques that fail to leverage recurring knowledge, our proposed approach is proven to be a robust and efficient online learning solution for unsupervised drifting data flows.
- Abstract(参考訳): 概念のドリフトと極端な検証レイテンシは、特に動的環境における反復的な概念変化を扱う場合、データストリーム学習において大きな課題となる。
本研究では、漸進的に進化するデータ分布(インクリメンタルドリフト)に適応しつつ、急激なリカレントドリフトを効果的に扱うように設計されたGNGアルゴリズムに基づく新しい手法を提案する。
提案手法は,GNGの自己組織的・トポロジカル適応性を生かしたコンパクトなメモリ構造を維持し,遅延やスパースストリーム管理の条件下であっても,過去の概念や再帰概念の知識を効率的に保存・取得することができる。
我々の実験は、インクリメンタルな非定常性と検証レイテンシに対処するために設計された既存のデータストリーム学習手法よりも優れていることを強調し、新しいドリフトに迅速に適応し、繰り返しパターンを堅牢に管理し、メモリフットプリントを最小限に抑えながら高い予測精度を維持する能力を示す。
繰り返し知識を活用できない他の手法とは異なり、提案手法は、教師なしドリフトデータフローに対する堅牢で効率的なオンライン学習ソリューションであることが証明されている。
関連論文リスト
- Reshaping the Online Data Buffering and Organizing Mechanism for Continual Test-Time Adaptation [49.53202761595912]
継続的なテスト時間適応は、訓練済みのソースモデルを適用して、教師なしのターゲットドメインを継続的に変更する。
我々は、オンライン環境、教師なしの自然、エラー蓄積や破滅的な忘れのリスクなど、このタスクの課題を分析する。
教師なしシングルパスデータストリームから重要サンプルを高い確実性で識別・集約する不確実性を考慮したバッファリング手法を提案する。
論文 参考訳(メタデータ) (2024-07-12T15:48:40Z) - AiGAS-dEVL: An Adaptive Incremental Neural Gas Model for Drifting Data Streams under Extreme Verification Latency [6.7236795813629]
ストリーミング設定では、データフローはパターン(コンセプトドリフト)の非定常性をもたらす要因によって影響を受ける。
本稿では,AiGAS-dEVLという新しい手法を提案する。これは,時間とともにストリーム内で検出されるすべての概念の分布を特徴付けるために,神経ガスの増大に依存する。
我々のアプローチは、時間とともにこれらの点の挙動をオンライン分析することで、特徴空間における概念の進化が定義できるようになることを明らかにしている。
論文 参考訳(メタデータ) (2024-07-07T14:04:57Z) - Liquid Neural Network-based Adaptive Learning vs. Incremental Learning for Link Load Prediction amid Concept Drift due to Network Failures [37.66676003679306]
概念の漂流に適応することは、機械学習において難しい課題である。
通信ネットワークでは、障害イベントの後に交通予報を行う際にこのような問題が生じる。
本稿では,適応学習アルゴリズム,すなわち,データパターンの急激な変化を,再学習を必要とせずに自己適応できる手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T08:47:46Z) - METER: A Dynamic Concept Adaptation Framework for Online Anomaly
Detection [25.022228143354123]
リアルタイム分析と意思決定は、データストリームのドリフトを効率的かつ効果的に処理するために、オンラインの異常検出を必要とする。
既存のアプローチは、検出能力の制限と、進化するデータストリームへの適応の遅さによって制約されることが多い。
我々は,OADの新しいパラダイムを導入した新しい動的概念適応フレームワークであるMETERを紹介する。
論文 参考訳(メタデータ) (2023-12-28T05:09:31Z) - A Conditioned Unsupervised Regression Framework Attuned to the Dynamic Nature of Data Streams [0.0]
本稿では,制限付きラベル付きデータを用いたストリーミング環境の最適戦略を提案し,教師なし回帰のための適応手法を提案する。
提案手法は,初期ラベルのスパースセットを活用し,革新的なドリフト検出機構を導入する。
適応性を高めるために,Adaptive WINdowingアルゴリズムとRoot Mean Square Error (RMSE)に基づく誤り一般化アルゴリズムを統合する。
論文 参考訳(メタデータ) (2023-12-12T19:23:54Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - An efficient and straightforward online quantization method for a data
stream through remove-birth updating [0.0]
データストリームの特性は動的に変化し、この変化はコンセプトドリフト(concept drift)として知られている。
本稿では,コンセプトドリフトのための簡単なオンラインベクトル量子化手法を提案する。
本研究は,コンセプトドリフトの存在下でも最小限のデッドユニットを生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-21T21:22:38Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。