論文の概要: Replay to Remember: Retaining Domain Knowledge in Streaming Language Models
- arxiv url: http://arxiv.org/abs/2504.17780v1
- Date: Thu, 24 Apr 2025 17:56:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.489552
- Title: Replay to Remember: Retaining Domain Knowledge in Streaming Language Models
- Title(参考訳): Replay to Remember: ストリーミング言語モデルにおけるドメイン知識の保持
- Authors: Sneh Pillai,
- Abstract要約: 大規模言語モデル(LLM)における継続的な学習は、破滅的な忘れ込みという重要な課題に直面するのが普通である。
現実的なストリーミング環境では,LoRAと最小限の再生機構を組み合わせた手法を実証する。
我々の実験では、破滅的な忘れが自然に起こるが、最小限のリプレイでさえ、ドメイン固有の知識を著しく安定化し、部分的に復元する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning in large language models (LLMs) typically encounters the critical challenge of catastrophic forgetting, where previously acquired knowledge deteriorates upon exposure to new data. While techniques like replay buffers and parameter-efficient tuning (e.g., Low-Rank Adaptation or LoRA) have been proposed, few studies investigate real-time domain adaptation under strict computational and data-stream constraints. In this paper, we demonstrate a lightweight method combining LoRA and a minimal replay mechanism in a realistic streaming setting across three diverse knowledge domains: medical question answering, genetics, and law. Using perplexity, semantic similarity, and GPT-based human-like evaluation metrics, we quantify the model's adaptation, forgetting, and recovery over time. Our experiments reveal that while catastrophic forgetting naturally occurs, even minimal replay significantly stabilizes and partially restores domain-specific knowledge. This study contributes practical insights for deploying adaptable LLMs in resource-constrained, real-world scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)における継続的な学習は通常、破滅的な忘れ込みという重要な課題に直面する。
リプレイバッファやパラメータ効率調整(例えばローランド適応やLoRA)のような手法が提案されているが、厳密な計算およびデータストリーム制約下でのリアルタイム領域適応についてはほとんど研究されていない。
本稿では,医学的質問応答,遺伝学,法則の3分野にわたる現実的なストリーミング環境において,LoRAと最小限の再生機構を組み合わせた軽量な手法を実証する。
パープレキシティ(perplexity)、意味的類似性(semantic similarity)、GPTに基づく人間的な評価指標を用いて、モデルの適応、忘れ、回復を時間とともに定量化する。
我々の実験では、破滅的な忘れが自然に起こるが、最小限のリプレイでさえ、ドメイン固有の知識を著しく安定化し、部分的に復元する。
本研究は,資源制約のある実世界のシナリオに適応型LLMをデプロイするための実践的洞察に寄与する。
関連論文リスト
- How Much Knowledge Can You Pack into a LoRA Adapter without Harming LLM? [55.33467849079774]
ローランク適応(ローランク適応、LoRA)は、大規模言語モデルの更新やドメイン固有適応のための一般的かつ効率的な訓練手法である。
これまでに学習した知識を損なうことなく, LoRA を用いて LLM に新たな事実を組み込む方法について検討した。
論文 参考訳(メタデータ) (2025-02-20T12:31:03Z) - Adaptation Odyssey in LLMs: Why Does Additional Pretraining Sometimes Fail to Improve? [19.34040322172224]
テキストドメイン上でモデルをトレーニングすることは、同じドメインのテスト部分において、その難易度を低下させる可能性があることを示す。
我々の発見は、いつモデルを適応するか、いつ基礎的な能力に頼るかを決める上で、私たちを導くでしょう。
論文 参考訳(メタデータ) (2024-10-08T00:37:16Z) - Enhancing Noise Robustness of Retrieval-Augmented Language Models with Adaptive Adversarial Training [39.21885486667879]
大型言語モデル(LLM)は、幻覚、時代遅れの知識、追跡不能な推論プロセスなどの課題に遭遇する重大な能力を示す。
Retrieval-augmented Generation(RAG)は、これらの課題を軽減するために、外部データベースからの知識を統合する、有望なソリューションとして登場した。
本稿では,RAAT(Retrieval-augmented Adaptive Adrial Training)として知られる新しいRAGアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-31T16:24:53Z) - Analyzing and Reducing Catastrophic Forgetting in Parameter Efficient
Tuning [9.38259062204602]
大規模言語モデル(LLM)は、言語理解と生成において顕著な性能を示す。
LLMは、複雑で多様なドメイン固有の下流タスクを継続的に微調整する。
可塑性学習とメモリ安定性のトレードオフを維持する必要がある。
論文 参考訳(メタデータ) (2024-02-29T05:27:45Z) - A Glitch in the Matrix? Locating and Detecting Language Model Grounding with Fakepedia [57.31074448586854]
大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T17:35:42Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Replay Buffer with Local Forgetting for Adapting to Local Environment
Changes in Deep Model-Based Reinforcement Learning [20.92599229976769]
本稿では,初回再生バッファの簡単な変更により,再生バッファの制限を克服できることを示す。
古典的ダイナ法のディープバージョンにリプレイバッファ変動を適用してこれを実証する。
論文 参考訳(メタデータ) (2023-03-15T15:21:26Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Studying Catastrophic Forgetting in Neural Ranking Models [3.8596788671326947]
ニューラルランキングモデルは、新しい知識を得た後、これまで観測された領域から得られた古い知識を破滅的に忘れる程度に研究する。
ニューラルIRランキングモデルの有効性は破滅的忘れのコストで達成できることを示した。
得られた結果は、神経IRにおける理論的および実用的な将来の作業に有用であると考えます。
論文 参考訳(メタデータ) (2021-01-18T10:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。