論文の概要: Knowledge-guided Continual Learning for Behavioral Analytics Systems
- arxiv url: http://arxiv.org/abs/2510.22405v2
- Date: Sat, 01 Nov 2025 19:07:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 14:12:27.96208
- Title: Knowledge-guided Continual Learning for Behavioral Analytics Systems
- Title(参考訳): 行動分析システムのための知識誘導型連続学習
- Authors: Yasas Senarath, Hemant Purohit,
- Abstract要約: このコンテンツをキャプチャするために学習するモデルは、データドリフトによって時間の経過とともにパフォーマンスが低下する可能性がある。
このようなモデルを時間をかけて微調整することは、破滅的な忘れ物のために有害である可能性がある。
連続学習におけるリプレイベースのアプローチは、そのようなモデルを更新するための単純で効率的な方法を提供する。
本稿では,リプレイ型連続学習フレームワークに外部知識を取り入れた拡張型アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User behavior on online platforms is evolving, reflecting real-world changes in how people post, whether it's helpful messages or hate speech. Models that learn to capture this content can experience a decrease in performance over time due to data drift, which can lead to ineffective behavioral analytics systems. However, fine-tuning such a model over time with new data can be detrimental due to catastrophic forgetting. Replay-based approaches in continual learning offer a simple yet efficient method to update such models, minimizing forgetting by maintaining a buffer of important training instances from past learned tasks. However, the main limitation of this approach is the fixed size of the buffer. External knowledge bases can be utilized to overcome this limitation through data augmentation. We propose a novel augmentation-based approach to incorporate external knowledge in the replay-based continual learning framework. We evaluate several strategies with three datasets from prior studies related to deviant behavior classification to assess the integration of external knowledge in continual learning and demonstrate that augmentation helps outperform baseline replay-based approaches.
- Abstract(参考訳): オンラインプラットフォームでのユーザー行動は進化しており、人々の投稿の仕方、役に立つメッセージかヘイトスピーチか、実際の変化を反映している。
このコンテンツをキャプチャするために学習するモデルは、データドリフトによる時間の経過とともにパフォーマンスが低下する可能性があるため、非効率的な行動分析システムにつながる可能性がある。
しかし、そのようなモデルを新しいデータで時間をかけて微調整することは、破滅的な忘れ物のために有害である可能性がある。
継続的学習におけるリプレイベースのアプローチは、そのようなモデルを更新するためのシンプルで効率的な方法を提供し、過去の学習タスクから重要なトレーニングインスタンスのバッファを保持することで、忘れを最小化する。
しかし、このアプローチの主な制限はバッファの固定サイズである。
外部知識ベースは、データ拡張によってこの制限を克服するために利用することができる。
本稿では,リプレイ型連続学習フレームワークに外部知識を取り入れた拡張型アプローチを提案する。
本研究では,経験的行動分類に関する先行研究から得られた3つのデータセットを用いて,連続学習における外部知識の統合性を評価するとともに,拡張がベースラインリプレイベースアプローチより優れていることを示す。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - ReLearn: Unlearning via Learning for Large Language Models [64.2802606302194]
本研究では、効果的なアンラーニングのためのデータ拡張および微調整パイプラインであるReLearnを提案する。
このフレームワークでは、知識レベルの保存を測定するために、知識獲得率(KFR)と知識保持率(KRR)を導入している。
実験の結果,ReLearnは高品質な出力を保ちながら,目標とするリセットを実現することができた。
論文 参考訳(メタデータ) (2025-02-16T16:31:00Z) - Temporal-Difference Variational Continual Learning [77.92320830700797]
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
提案手法は, 変分CL法より優れたカタストロフィックフォーミングを効果的に緩和する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime
Inference [36.61783715563126]
生涯学習をストリーミングすることは、忘れずに継続的な学習を目標とすることで、生涯学習の挑戦的な設定である。
ストリーミング(学習例は1回に1回のみ)である生涯学習に新たなアプローチを導入する。
本稿では,各新しい例に適応し,過去のデータにも順応し,破滅的な忘れ込みを防止できる新しいエンフェクチュアル勾配に基づく連続表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T07:54:49Z) - Advancing continual lifelong learning in neural information retrieval: definition, dataset, framework, and empirical evaluation [3.2340528215722553]
連続的なニューラル情報検索の系統的なタスク定式化を示す。
包括的連続神経情報検索フレームワークを提案する。
経験的評価は,提案フレームワークが神経情報検索における破滅的な忘れ込みを効果的に防止できることを示唆している。
論文 参考訳(メタデータ) (2023-08-16T14:01:25Z) - Dissecting Continual Learning a Structural and Data Analysis [0.0]
連続学習(Continuous Learning)は、生涯学習が可能なアルゴリズムを考案するための分野である。
ディープラーニングの手法は、モデル化されたデータがその後の学習セッションでかなりの分散シフトを受けていない場合、印象的な結果が得られる。
このようなシステムをこのインクリメンタルな設定に公開すると、パフォーマンスは急速に低下します。
論文 参考訳(メタデータ) (2023-01-03T10:37:11Z) - Class-Incremental Learning by Knowledge Distillation with Adaptive
Feature Consolidation [39.97128550414934]
本稿では,ディープニューラルネットワークに基づく新しいクラスインクリメンタル学習手法を提案する。
以前のタスクの例を格納するためのメモリが限られている新しいタスクを継続的に学習する。
我々のアルゴリズムは知識蒸留に基づいており、古いモデルの表現を維持するための原則的な方法を提供する。
論文 参考訳(メタデータ) (2022-04-02T16:30:04Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。