論文の概要: Iterative Network Pruning with Uncertainty Regularization for Lifelong
Sentiment Classification
- arxiv url: http://arxiv.org/abs/2106.11197v1
- Date: Mon, 21 Jun 2021 15:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 16:00:24.872546
- Title: Iterative Network Pruning with Uncertainty Regularization for Lifelong
Sentiment Classification
- Title(参考訳): 生涯知覚分類のための不確かさ規則化を伴う反復的ネットワークプルーニング
- Authors: Binzong Geng, Min Yang, Fajie Yuan, Shupeng Wang, Xiang Ao, Ruifeng Xu
- Abstract要約: ディープラーニングにとって、生涯学習は簡単ではない。
本稿では,生涯的感情分類のための不確実性正則化手法を用いた新しい反復型ネットワークプルーニングを提案する。
- 参考スコア(独自算出の注目度): 25.13885692629219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lifelong learning capabilities are crucial for sentiment classifiers to
process continuous streams of opinioned information on the Web. However,
performing lifelong learning is non-trivial for deep neural networks as
continually training of incrementally available information inevitably results
in catastrophic forgetting or interference. In this paper, we propose a novel
iterative network pruning with uncertainty regularization method for lifelong
sentiment classification (IPRLS), which leverages the principles of network
pruning and weight regularization. By performing network pruning with
uncertainty regularization in an iterative manner, IPRLS can adapta single BERT
model to work with continuously arriving data from multiple domains while
avoiding catastrophic forgetting and interference. Specifically, we leverage an
iterative pruning method to remove redundant parameters in large deep networks
so that the freed-up space can then be employed to learn new tasks, tackling
the catastrophic forgetting problem. Instead of keeping the old-tasks fixed
when learning new tasks, we also use an uncertainty regularization based on the
Bayesian online learning framework to constrain the update of old tasks weights
in BERT, which enables positive backward transfer, i.e. learning new tasks
improves performance on past tasks while protecting old knowledge from being
lost. In addition, we propose a task-specific low-dimensional residual function
in parallel to each layer of BERT, which makes IPRLS less prone to losing the
knowledge saved in the base BERT network when learning a new task. Extensive
experiments on 16 popular review corpora demonstrate that the proposed IPRLS
method sig-nificantly outperforms the strong baselines for lifelong sentiment
classification. For reproducibility, we submit the code and data
at:https://github.com/siat-nlp/IPRLS.
- Abstract(参考訳): 生涯学習能力は、web上の意見情報の連続的なストリームを処理する感情分類器にとって不可欠である。
しかし、インクリメンタルに利用可能な情報の継続的なトレーニングが必然的に破滅的な忘れや干渉をもたらすため、深層ニューラルネットワークでは生涯学習の実行は簡単ではない。
本稿では,ネットワークプルーニングと重み正規化の原理を生かした,不確実性正則化手法(IPRLS)を用いた新規な反復型ネットワークプルーニングを提案する。
IPRLSは、不確実な正規化を反復的に行うことにより、単一BERTモデルを複数のドメインからの連続的な到着データに適応し、破滅的な忘れと干渉を避けることができる。
具体的には,大規模深層ネットワークにおける冗長パラメータの除去に反復的プルーニング法を応用し,新たなタスクの学習にフリードアップ空間を活用し,破滅的な忘れる問題に取り組む。
新しいタスクを学習する際に古いタスクを固定する代わりに、ベイジアンオンライン学習フレームワークに基づく不確実な正規化を使用して、BERTにおける古いタスクの重みの更新を制限する。
新しいタスクを学ぶことで、過去のタスクのパフォーマンスが向上します。
さらに,タスク固有の低次元残差関数をBERTの各層に並列に提案し,新しいタスクを学習する際に,基地局のBERTネットワークに格納された知識が失われやすいようにした。
16のポピュラーレビューコーパスに関する広範囲な実験により、iprls法が生涯の感情分類の強いベースラインを上回ることが示されている。
再現性のために、コードとデータをhttps://github.com/siat-nlp/IPRLSに送信します。
関連論文リスト
- Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - CLR: Channel-wise Lightweight Reprogramming for Continual Learning [63.94773340278971]
継続的な学習は、逐次的なタスクを通じて継続的に知識を蓄積する人間の能力をエミュレートすることを目的としている。
主な課題は、新しいタスクを学習した後、以前に学習したタスクのパフォーマンスを維持することである。
本稿では、畳み込みニューラルネットワークが破滅的な忘れを克服するのに役立つチャネルワイドなライトウェイト・リプログラミング手法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:56:21Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - OER: Offline Experience Replay for Continual Offline Reinforcement Learning [25.985985377992034]
エージェントには、事前にコンパイルされたオフラインデータセットのシーケンスを通じて、新たなスキルを継続的に学習することが望ましい。
本稿では、エージェントが一連のオフライン強化学習タスクを学習する、新しい設定である連続オフライン強化学習(CORL)を定式化する。
本稿では,リプレイバッファを構築するためのモデルベースエクスペリエンス選択手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T08:16:44Z) - Can BERT Refrain from Forgetting on Sequential Tasks? A Probing Study [68.75670223005716]
BERTのような事前学習型言語モデルでは,メモリリプレイが少なくても,逐次学習が可能であることが判明した。
実験の結果,BERT は従来学習したタスクに対して,極めて疎らなリプレイや,さらにはリプレイを行なわずに,長期間にわたって高品質な表現を生成できることが判明した。
論文 参考訳(メタデータ) (2023-03-02T09:03:43Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。