論文の概要: MedCL-Bench: Benchmarking stability-efficiency trade-offs and scaling in biomedical continual learning
- arxiv url: http://arxiv.org/abs/2603.16738v1
- Date: Tue, 17 Mar 2026 16:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.408752
- Title: MedCL-Bench: Benchmarking stability-efficiency trade-offs and scaling in biomedical continual learning
- Title(参考訳): MedCL-Bench: バイオメディカル連続学習における安定性と効率のトレードオフとスケーリングのベンチマーク
- Authors: Min Zeng, Shuang Zhou, Zaifu Zhan, Rui Zhang,
- Abstract要約: MedCL-Benchは5つのタスクファミリーにまたがる10のバイオメディカルNLPデータセットをストリームする。
我々は8つのタスクオーダに対して連続的な学習戦略を11つ評価し、保持率、移動率、GPU時間コストを報告した。
forttingはタスクに依存しており、マルチラベルのトピック分類が最も脆弱で制約のある出力タスクがより堅牢である。
- 参考スコア(独自算出の注目度): 12.134701089850282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical language models must be updated as evidence and terminology evolve, yet sequential updating can trigger catastrophic forgetting. Although biomedical NLP has many static benchmarks, no unified, task-diverse benchmark exists for evaluating continual learning under standardized protocols, robustness to task order and compute-aware reporting. We introduce MedCL-Bench, which streams ten biomedical NLP datasets spanning five task families and evaluates eleven continual learning strategies across eight task orders, reporting retention, transfer, and GPU-hour cost. Across backbones and task orders, direct sequential fine-tuning on incoming tasks induces catastrophic forgetting, causing update-induced performance regressions on prior tasks. Continual learning methods occupy distinct retention-compute frontiers: parameter-isolation provides the best retention per GPU-hour, replay offers strong protection at higher cost, and regularization yields limited benefit. Forgetting is task-dependent, with multi-label topic classification most vulnerable and constrained-output tasks more robust. MedCL-Bench provides a reproducible framework for auditing model updates before deployment.
- Abstract(参考訳): 医療言語モデルは、証拠と用語が進化するにつれて更新されなければならないが、逐次更新は破滅的な忘れを招きかねない。
バイオメディカルNLPには多くの静的ベンチマークがあるが、標準化されたプロトコル下での継続学習の評価、タスク順序に対する堅牢性、および計算対応レポートのための統合されたタスク多様性ベンチマークは存在しない。
MedCL-Benchは、5つのタスクファミリーにまたがる10のバイオメディカルNLPデータセットをストリームし、8つのタスクオーダにわたる11の継続的学習戦略を評価し、保持、転送、GPU時間コストを報告します。
バックボーンとタスクオーダをまたいで、入ってくるタスクを直接逐次微調整することで、破滅的な忘れを招き、前回のタスクに更新によるパフォーマンス低下を引き起こす。
パラメータアイソレーションはGPU時間当たりの最高の保持を提供し、リプレイはより高いコストで強力な保護を提供し、正規化は限られた利益をもたらす。
forttingはタスクに依存しており、マルチラベルのトピック分類が最も脆弱で制約のある出力タスクがより堅牢である。
MedCL-Benchは、デプロイ前にモデルの更新を監査するための再現可能なフレームワークを提供する。
関連論文リスト
- MSSR: Memory-Aware Adaptive Replay for Continual LLM Fine-Tuning [36.119948355819]
本稿では,サンプルレベルの記憶強度を推定し,アダプティブ間隔でリハーサルをスケジュールし,破滅的な忘れを緩和するエクスペリエンス・リプレイ・フレームワークを提案する。
3つのバックボーンモデルと11のシーケンシャルタスクにわたる大規模な実験は、MSSRが一貫して最先端のリプレイベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2026-03-10T16:49:44Z) - Forget Less, Retain More: A Lightweight Regularizer for Rehearsal-Based Continual Learning [51.07663354001582]
ディープニューラルネットワークは破滅的な忘れ込みに悩まされ、新しいタスクのトレーニング後に以前のタスクのパフォーマンスが低下する。
本稿では,メモリベースの手法と正規化手法の交わりに着目し,この問題に対処する新しいアプローチを提案する。
我々は、メモリベース連続学習法において、情報最大化(IM)正則化と呼ばれる正規化戦略を定式化する。
論文 参考訳(メタデータ) (2025-12-01T15:56:00Z) - Bayesian continual learning and forgetting in neural networks [0.8795040582681392]
シナプス不確実性(MESU)からメタ可塑性を導入する
MESUはベイジアンフレームワークであり、不確実性に応じてネットワークパラメータを更新する。
この結果は, メタ塑性, ベイズ推定, ヘッセン系正則化のアイデアを統一するものである。
論文 参考訳(メタデータ) (2025-04-18T09:11:34Z) - Large Continual Instruction Assistant [59.585544987096974]
CIT(Continuous Instruction Tuning)は、大規模モデルにデータによる人間の意図データに従うよう指示するために用いられる。
既存の更新勾配は、CITプロセス中に前のデータセットのパフォーマンスを著しく損なうことになる。
本稿では,この課題に対処する汎用的な連続的命令チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。