論文の概要: Memorization in Fine-Tuned Large Language Models
- arxiv url: http://arxiv.org/abs/2507.21009v1
- Date: Mon, 28 Jul 2025 17:22:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.225812
- Title: Memorization in Fine-Tuned Large Language Models
- Title(参考訳): 微調整大言語モデルにおける記憶
- Authors: Danil Savine, Muni Sreenivas Pydi, Jamal Atif, Olivier Cappé,
- Abstract要約: 本研究では,微調整大言語モデル(LLM)における暗記のメカニズムと要因について検討する。
薬物移動イベントのPHEEデータセットを用いて、微調整プロセスの異なる側面がトレーニングデータを記憶するモデルの適合性にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 11.858310865212959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the mechanisms and factors influencing memorization in fine-tuned large language models (LLMs), with a focus on the medical domain due to its privacy-sensitive nature. We examine how different aspects of the fine-tuning process affect a model's propensity to memorize training data, using the PHEE dataset of pharmacovigilance events. Our research employs two main approaches: a membership inference attack to detect memorized data, and a generation task with prompted prefixes to assess verbatim reproduction. We analyze the impact of adapting different weight matrices in the transformer architecture, the relationship between perplexity and memorization, and the effect of increasing the rank in low-rank adaptation (LoRA) fine-tuning. Key findings include: (1) Value and Output matrices contribute more significantly to memorization compared to Query and Key matrices; (2) Lower perplexity in the fine-tuned model correlates with increased memorization; (3) Higher LoRA ranks lead to increased memorization, but with diminishing returns at higher ranks. These results provide insights into the trade-offs between model performance and privacy risks in fine-tuned LLMs. Our findings have implications for developing more effective and responsible strategies for adapting large language models while managing data privacy concerns.
- Abstract(参考訳): 本研究では,微調整大言語モデル(LLM)における記憶のメカニズムと要因について検討し,そのプライバシーに敏感な性質から医学領域に焦点をあてた。
薬物移動イベントのPHEEデータセットを用いて、微調整プロセスの異なる側面がトレーニングデータを記憶するモデルの適合性にどのように影響するかを検討する。
本研究は,記憶されたデータを検出するメンバシップ推論攻撃と,暗黙の再現を評価するための接頭辞を用いた生成タスクの2つの主要なアプローチを用いている。
我々は,トランスアーキテクチャにおける異なる重み行列の適応の影響,パープレキシティと記憶の関係,ローランク適応(LoRA)微調整におけるランク上昇の効果を解析した。
その結果,(1)値および出力行列は,クエリやキー行列に比べて記憶量に大きく寄与し,(2)微調整モデルの低次パープレキシティは記憶量の増加と相関し,(3)高次LoRAは記憶量の増加に寄与するが,高いランクでのリターンは減少することがわかった。
これらの結果は、微調整LDMにおけるモデル性能とプライバシリスクのトレードオフに関する洞察を与える。
この結果は,データプライバシの懸念を管理しながら,大規模言語モデルを適用する上で,より効果的で責任ある戦略を開発する上で重要である。
関連論文リスト
- Extending Memorization Dynamics in Pythia Models from Instance-Level Insights [8.476099189609565]
本稿では, Pythia モデルファミリーの様々なスケールおよびトレーニングステップにおける記憶の詳細な解析について述べる。
粒度の計測値を用いて、モデルアーキテクチャ、データ特性、摂動が記憶パターンにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-06-14T03:02:42Z) - On Adversarial Robustness of Language Models in Transfer Learning [13.363850350446869]
転送学習は、標準的なパフォーマンス指標を改善する一方で、敵攻撃に対する脆弱性の増加につながることがよく示される。
以上の結果から, モデルサイズ, アーキテクチャ, 適応手法の複雑な相互作用が示唆された。
論文 参考訳(メタデータ) (2024-12-29T15:55:35Z) - Do Influence Functions Work on Large Language Models? [10.463762448166714]
影響関数は、個々のトレーニングデータポイントがモデルの予測に与える影響を定量化する上で重要である。
我々は,複数のタスクにまたがる影響関数を評価し,ほとんどの設定において不整合なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-09-30T06:50:18Z) - Understanding Memorisation in LLMs: Dynamics, Influencing Factors, and Implications [14.818820873377303]
本研究では,大規模言語モデル (LLM) がどの程度トレーニングデータを記憶しているかについて検討する。
ランダムな文字列に対して繰り返しLLMを露呈する実験的なフレームワークを作成する。
我々は,一部の文字列を記憶しやすくする要因を特定し,記憶における局所的な接頭辞の役割とグローバルな文脈を同定する。
論文 参考訳(メタデータ) (2024-07-27T14:00:21Z) - Generalization v.s. Memorization: Tracing Language Models' Capabilities Back to Pretraining Data [76.90128359866462]
本稿では,出力確率と事前学習データ頻度の相関を計測する,記憶化,分布記憶化という拡張概念を導入する。
本研究は, より単純で知識集約的なタスクにおいて, 記憶がより大きな役割を担い, 一般化が, より困難で推論に基づくタスクの鍵であることを示す。
論文 参考訳(メタデータ) (2024-07-20T21:24:40Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。