論文の概要: Rote Learning Considered Useful: Generalizing over Memorized Data in LLMs
- arxiv url: http://arxiv.org/abs/2507.21914v1
- Date: Tue, 29 Jul 2025 15:28:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.563684
- Title: Rote Learning Considered Useful: Generalizing over Memorized Data in LLMs
- Title(参考訳): 有用性を考慮したロートラーニング:LLMにおける記憶データの一般化
- Authors: Qinyuan Wu, Soumi Das, Mahsa Amani, Bishwamittra Ghosh, Mohammad Aflah Khan, Krishna P. Gummadi, Muhammad Bilal Zafar,
- Abstract要約: ロートラーニング(英: Rote learning)は、反復に基づく暗記技法である。
本研究では,ロート記憶データからLCMを学習して一般化できることを実証する。
- 参考スコア(独自算出の注目度): 14.925879394978852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rote learning is a memorization technique based on repetition. It is commonly believed to hinder generalization by encouraging verbatim memorization rather than deeper understanding. This insight holds for even learning factual knowledge that inevitably requires a certain degree of memorization. In this work, we demonstrate that LLMs can be trained to generalize from rote memorized data. We introduce a two-phase memorize-then-generalize framework, where the model first rote memorizes factual subject-object associations using a semantically meaningless token and then learns to generalize by fine-tuning on a small set of semantically meaningful prompts. Extensive experiments over 8 LLMs show that the models can reinterpret rote memorized data through the semantically meaningful prompts, as evidenced by the emergence of structured, semantically aligned latent representations between the two. This surprising finding opens the door to both effective and efficient knowledge injection and possible risks of repurposing the memorized data for malicious usage.
- Abstract(参考訳): ロートラーニング(英: Rote learning)は、反復に基づく暗記技法である。
理解を深めるよりも、動詞の暗記を奨励することで一般化を妨げると一般的に信じられている。
この洞察は、必然的にある程度の記憶を必要とする事実知識を学習することさえも意味する。
本研究では,ロート記憶データからLCMを学習して一般化できることを実証する。
まず,意味的に意味のないトークンを用いて実写オブジェクトの関連性を記憶し,意味的に意味のある少量のプロンプトを微調整することで一般化を学習する。
8個のLLM上での広範囲な実験により、このモデルが意味論的に意味のあるプロンプトを通じて暗記されたデータを再解釈できることが示され、両者の間に構造的、意味論的に整合した潜在表現が出現したことが証明された。
この驚くべき発見は、効果的で効率的な知識注入と、悪意のある使用のために記憶されたデータを再利用するリスクの両方への扉を開く。
関連論文リスト
- Scaling Laws for Fact Memorization of Large Language Models [67.94080978627363]
我々は,大規模言語モデルにおける事実知識のスケーリング法則と,異なる種類の事実を記憶する行動について分析する。
LLMの事実知識能力は,モデルサイズや訓練のエポックと線形かつ負の指数法則関係を持つことがわかった。
本研究は,LLMのファクト・ナレッジ・ナレッジ・ラーニングの能力と特徴を明らかにし,LLMのファクト・ナレッジ・アジュメンテーションの方向性を示した。
論文 参考訳(メタデータ) (2024-06-22T03:32:09Z) - The Mosaic Memory of Large Language Models [7.405082919188384]
我々は,Large Language Models (LLM) が類似のシーケンスから情報を組み立てることで記憶することを示す。
モザイク記憶を示す主要なLCMを示し, ファジィ複製は, 正確に複製され, 修正された配列の0.8まで記憶に寄与し, 記憶に大きく寄与する。
論文 参考訳(メタデータ) (2024-05-24T13:05:05Z) - Do LLMs Dream of Ontologies? [13.776194387957617]
大規模モデル言語(LLM)は、様々な自然言語処理タスクにまたがる顕著な記憶を実証している。
本稿では,LLMが公開リソースから概念識別子(ID)-ラベル関連を正しく再現する範囲について検討する。
論文 参考訳(メタデータ) (2024-01-26T15:10:23Z) - Exploring Memorization in Fine-tuned Language Models [53.52403444655213]
我々は,タスク間の微調整中に,言語モデルの暗記を探索する最初の包括的分析を行う。
オープンソースと、さまざまなタスクにまたがる独自の微調整LMによる研究は、暗記が様々な微調整タスクの間に強い相違を示すことを示している。
本稿では,この課題の相違をスパース符号化理論を用いて直感的に説明し,暗記と注目スコア分布との強い相関関係を明らかにする。
論文 参考訳(メタデータ) (2023-10-10T15:41:26Z) - Decoupling Knowledge from Memorization: Retrieval-augmented Prompt
Learning [113.58691755215663]
一般化と記憶のバランスをとるためにRetroPromptを開発した。
バニラプロンプト学習とは対照的に、RetroPromptはトレーニングインスタンスからオープンブックナレッジストアを構築する。
大規模な実験により、RetroPromptは、数ショットとゼロショットの両方で、より良いパフォーマンスを得ることができることが示されている。
論文 参考訳(メタデータ) (2022-05-29T16:07:30Z) - Counterfactual Memorization in Neural Language Models [91.8747020391287]
様々なNLPタスクで広く使用されている現代のニューラルネットワークモデルは、トレーニングデータからセンシティブな情報を記憶するリスクがある。
言語モデル記憶の以前の研究におけるオープンな疑問は、「一般的な」記憶の除去方法である。
トレーニング中に特定の文書が省略された場合、モデルの予測がどのように変化するかを特徴付ける反事実記憶の概念を定式化する。
論文 参考訳(メタデータ) (2021-12-24T04:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。