論文の概要: Evaluating and Improving Continual Learning in Spoken Language
Understanding
- arxiv url: http://arxiv.org/abs/2402.10427v1
- Date: Fri, 16 Feb 2024 03:30:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:44:03.097141
- Title: Evaluating and Improving Continual Learning in Spoken Language
Understanding
- Title(参考訳): 音声言語理解における連続学習の評価と改善
- Authors: Muqiao Yang, Xiang Li, Umberto Cappellazzo, Shinji Watanabe, Bhiksha
Raj
- Abstract要約: 本研究では,連続学習における安定性,可塑性,一般化性に関する統一的な評価手法を提案する。
提案手法を用いることで,SLUモデルのこれらの3つの特性の異なる側面を,様々な知識蒸留の導入によってどのように改善するかを実証する。
- 参考スコア(独自算出の注目度): 58.723320551761525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning has emerged as an increasingly important challenge across
various tasks, including Spoken Language Understanding (SLU). In SLU, its
objective is to effectively handle the emergence of new concepts and evolving
environments. The evaluation of continual learning algorithms typically
involves assessing the model's stability, plasticity, and generalizability as
fundamental aspects of standards. However, existing continual learning metrics
primarily focus on only one or two of the properties. They neglect the overall
performance across all tasks, and do not adequately disentangle the plasticity
versus stability/generalizability trade-offs within the model. In this work, we
propose an evaluation methodology that provides a unified evaluation on
stability, plasticity, and generalizability in continual learning. By employing
the proposed metric, we demonstrate how introducing various knowledge
distillations can improve different aspects of these three properties of the
SLU model. We further show that our proposed metric is more sensitive in
capturing the impact of task ordering in continual learning, making it better
suited for practical use-case scenarios.
- Abstract(参考訳): 継続的な学習は、Spoken Language Understanding (SLU)など、さまざまなタスクにおいてますます重要な課題となっている。
SLUの目的は、新しい概念の出現と進化する環境を効果的に扱うことである。
連続学習アルゴリズムの評価は通常、標準の基本的側面としてモデルの安定性、可塑性、一般化可能性を評価する。
しかし、既存の連続学習メトリクスは、主にプロパティの1つか2つだけに焦点を当てている。
彼らはすべてのタスク全体のパフォーマンスを無視し、モデル内の可塑性と安定性/一般化のトレードオフを適切に区別しません。
本研究では,連続学習における安定性,可塑性,一般化性を統一的に評価する評価手法を提案する。
提案手法を用いることで,SLUモデルの3つの特性の異なる側面を,様々な知識蒸留の導入によってどのように改善するかを示す。
さらに,提案手法が継続学習におけるタスクオーダリングの影響を捉える上でより敏感であることを示し,実用シナリオに適合することを示す。
関連論文リスト
- Benchmarking Continual Learning from Cognitive Perspectives [14.867136605254975]
継続的な学習は、古い概念を破滅的に忘れることなく、継続的に知識を取得し、伝達する問題に対処する。
連続学習モデルの認知特性と評価方法にはミスマッチがある。
本稿では,モデル認知能力と評価指標を統一評価パラダイムに統合することを提案する。
論文 参考訳(メタデータ) (2023-12-06T06:27:27Z) - Towards Plastic and Stable Exemplar-Free Incremental Learning: A
Dual-Learner Framework with Cumulative Parameter Averaging [13.293105226880616]
In this proposed a Dual-Learner framework with Cumulative。
平均化(DLCPA)
DLCPA は Task-IL と Class-IL の両方の設定において,最先端の既定ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-28T08:48:44Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - A Domain-Agnostic Approach for Characterization of Lifelong Learning
Systems [128.63953314853327]
「生涯学習」システムには,1)継続的学習,2)伝達と適応,3)拡張性があります。
この一連のメトリクスは、様々な複雑な生涯学習システムの開発に役立てることができることを示す。
論文 参考訳(メタデータ) (2023-01-18T21:58:54Z) - Continual Learning for Pose-Agnostic Object Recognition in 3D Point
Clouds [5.521693536291449]
この研究は、オブジェクトのポーズが動的かつ予測不能に変化する、ポーズに依存しない連続的な学習タスクに焦点を当てる。
本稿では,従来のタスクの幾何等値情報を効果的に蒸留する連続学習モデルを提案する。
実験により,本手法はいくつかの主流クラウドデータセットにおいて,ポーズに依存しないシナリオの課題を克服することを示した。
論文 参考訳(メタデータ) (2022-09-11T11:31:39Z) - Balancing Robustness and Sensitivity using Feature Contrastive Learning [95.86909855412601]
堅牢性を促進する方法は、希少なパターンや表現不足パターンに対するモデルの感受性を損なう可能性がある。
本稿では,より高次文脈的有用性を持つ機能に対して,モデルにより敏感な特徴を与える機能コントラスト学習(FCL)を提案する。
論文 参考訳(メタデータ) (2021-05-19T20:53:02Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。