論文の概要: Lite-RVFL: A Lightweight Random Vector Functional-Link Neural Network for Learning Under Concept Drift
- arxiv url: http://arxiv.org/abs/2506.08063v1
- Date: Mon, 09 Jun 2025 09:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.263412
- Title: Lite-RVFL: A Lightweight Random Vector Functional-Link Neural Network for Learning Under Concept Drift
- Title(参考訳): Lite-RVFL:概念ドリフト下での学習のための軽量ランダムベクトル関数リンクニューラルネットワーク
- Authors: Songqiao Hu, Zeyi Liu, Xiao He,
- Abstract要約: Lite-RVFLは、ドリフトの検出や再学習なしにコンセプトドリフトに適応できる軽量で高速で効率的なランダムなベクトル機能リンクネットワークである。
実世界の安全評価タスクの結果は,Lite-RVFLの時間的パターンを捉えることの効率性,ドリフトへの適応性,および可能性を検証する。
- 参考スコア(独自算出の注目度): 6.0343041794631604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The change in data distribution over time, also known as concept drift, poses a significant challenge to the reliability of online learning methods. Existing methods typically require model retraining or drift detection, both of which demand high computational costs and are often unsuitable for real-time applications. To address these limitations, a lightweight, fast and efficient random vector functional-link network termed Lite-RVFL is proposed, capable of adapting to concept drift without drift detection and retraining. Lite-RVFL introduces a novel objective function that assigns weights exponentially increasing to new samples, thereby emphasizing recent data and enabling timely adaptation. Theoretical analysis confirms the feasibility of this objective function for drift adaptation, and an efficient incremental update rule is derived. Experimental results on a real-world safety assessment task validate the efficiency, effectiveness in adapting to drift, and potential to capture temporal patterns of Lite-RVFL. The source code is available at https://github.com/songqiaohu/Lite-RVFL.
- Abstract(参考訳): コンセプトドリフトとしても知られるデータ分散の変化は、オンライン学習手法の信頼性に重大な課題をもたらす。
既存の手法ではモデルの再訓練やドリフト検出が必要であり、どちらも高い計算コストを必要としており、リアルタイムアプリケーションには適さないことが多い。
これらの制約に対処するために、ライト-RVFLと呼ばれる軽量で高速で効率的なランダムなベクトル汎関数リンクネットワークを提案し、ドリフト検出や再学習なしにコンセプトドリフトに適応できる。
Lite-RVFLは、新しいサンプルに指数関数的に増加する重みを割り当て、最新のデータを強調し、タイムリーな適応を可能にする、新しい目的関数を導入している。
理論的解析により、ドリフト適応のためのこの目的関数の実現可能性を確認し、効率的なインクリメンタル更新ルールを導出する。
実世界の安全評価課題における実験結果は, ドリフトに適応する効率, およびLite-RVFLの時間的パターンを捉える可能性を検証した。
ソースコードはhttps://github.com/songqiaohu/Lite-RVFL.comで入手できる。
関連論文リスト
- PointLoRA: Low-Rank Adaptation with Token Selection for Point Cloud Learning [54.99373314906667]
ポイントクラウドのための自己教師付き表現学習は、様々なタスクで事前訓練されたモデルパフォーマンスを改善する効果を実証した。
事前訓練されたモデルは複雑さが増すにつれて、下流のアプリケーションに完全に微調整を施すには、かなりの計算資源とストレージ資源が必要である。
そこで我々は,低ランク適応(LoRA)とマルチスケールトークン選択を併用した簡易かつ効果的なPointLoRAを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:41:21Z) - AiGAS-dEVL-RC: An Adaptive Growing Neural Gas Model for Recurrently Drifting Unsupervised Data Streams [6.7236795813629]
本研究は,急激な再帰流を処理するために,GNGアルゴリズムに基づく新しい手法を提案する。
提案手法はコンパクトだが情報的なメモリ構造を維持しており,過去の概念や再帰概念の知識を効率的に保存し,検索することができる。
繰り返し知識を活用できない他の手法とは異なり、提案手法は、教師なしドリフトデータフローに対する堅牢で効率的なオンライン学習ソリューションであることが証明されている。
論文 参考訳(メタデータ) (2025-04-08T07:42:50Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Liquid Neural Network-based Adaptive Learning vs. Incremental Learning for Link Load Prediction amid Concept Drift due to Network Failures [37.66676003679306]
概念の漂流に適応することは、機械学習において難しい課題である。
通信ネットワークでは、障害イベントの後に交通予報を行う際にこのような問題が生じる。
本稿では,適応学習アルゴリズム,すなわち,データパターンの急激な変化を,再学習を必要とせずに自己適応できる手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T08:47:46Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - FLuID: Mitigating Stragglers in Federated Learning using Invariant
Dropout [1.8262547855491458]
Federated Learningは、機械学習モデルが個々のモバイルデバイス上でローカルにトレーニングし、共有サーバを介してモデルの更新を同期することを可能にする。
結果として、性能の低いストラグラーデバイスは、FLにおける全体的なトレーニング時間を規定することが多い。
Invariant Dropoutは,重み更新しきい値に基づいてサブモデルを抽出する手法である。
Invariant Dropout を用いた適応学習フレームワークであるFederated Learning を開発した。
論文 参考訳(メタデータ) (2023-07-05T19:53:38Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift [12.579800289829963]
ストリーミングデータから学ぶとき、概念ドリフト(concept drift)とも呼ばれるデータ分散の変化は、以前に学習したモデルが不正確なものになる可能性がある。
本研究では,ドリフト検出をより広範な安定状態/反応性状態プロセスに組み込むことにより,従来のドリフト検出に基づく手法を拡張する適応学習アルゴリズムを提案する。
このアルゴリズムはベースラーナーにおいて汎用的であり、様々な教師付き学習問題に適用できる。
論文 参考訳(メタデータ) (2020-03-13T23:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。