論文の概要: Finding Memo: Extractive Memorization in Constrained Sequence Generation
Tasks
- arxiv url: http://arxiv.org/abs/2210.12929v1
- Date: Mon, 24 Oct 2022 03:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:02:05.939906
- Title: Finding Memo: Extractive Memorization in Constrained Sequence Generation
Tasks
- Title(参考訳): find memo: 制約付きシーケンス生成タスクにおける抽出的記憶
- Authors: Vikas Raunak and Arul Menezes
- Abstract要約: 記憶化は、ニューラルネットワーク翻訳(NMT)のようないくつかの制約付き自然言語生成(NLG)タスクに挑戦する。
制約付きシーケンス生成タスクにおける抽出記憶のための,新しい安価なアルゴリズムを提案する。
我々は,同じモデルから記憶されたサンプルの非記憶翻訳を抽出する簡単なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 12.478605921259403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memorization presents a challenge for several constrained Natural Language
Generation (NLG) tasks such as Neural Machine Translation (NMT), wherein the
proclivity of neural models to memorize noisy and atypical samples reacts
adversely with the noisy (web crawled) datasets. However, previous studies of
memorization in constrained NLG tasks have only focused on counterfactual
memorization, linking it to the problem of hallucinations. In this work, we
propose a new, inexpensive algorithm for extractive memorization (exact
training data generation under insufficient context) in constrained sequence
generation tasks and use it to study extractive memorization and its effects in
NMT. We demonstrate that extractive memorization poses a serious threat to NMT
reliability by qualitatively and quantitatively characterizing the memorized
samples as well as the model behavior in their vicinity. Based on empirical
observations, we develop a simple algorithm which elicits non-memorized
translations of memorized samples from the same model, for a large fraction of
such samples. Finally, we show that the proposed algorithm could also be
leveraged to mitigate memorization in the model through finetuning. We have
released the code to reproduce our results at
https://github.com/vyraun/Finding-Memo.
- Abstract(参考訳): 記憶化は、ニューラルネットワーク翻訳(NMT)のようないくつかの制約された自然言語生成(NLG)タスクにおいて、ノイズを記憶するニューラルモデルの確率と非定型サンプルがノイズ(Webクロード)データセットと悪反応する課題である。
しかし, 制約付きNLGタスクにおける暗記の過去の研究は, 幻覚問題とリンクした反ファクト的暗記にのみ焦点をあてている。
そこで本研究では,制約付きシーケンス生成タスクにおける抽出暗記(文脈不足下での訓練データ生成)のための,コストのかかる新しいアルゴリズムを提案し,NMTにおける抽出暗記とその効果について検討する。
抽出的記憶がnmtの信頼性に深刻な脅威をもたらすことを実証し,記憶された試料とその近傍におけるモデル行動の質的,定量的に特徴付ける。
実験的な観察に基づいて,同じモデルから記憶されたサンプルの非記憶翻訳を抽出する簡単なアルゴリズムを開発した。
最後に,提案アルゴリズムは,微調整によるモデルの記憶の緩和にも活用できることを示す。
https://github.com/vyraun/Finding-Memo.comで結果を再現するコードをリリースした。
関連論文リスト
- The Unreasonable Ineffectiveness of Nucleus Sampling on Mitigating Text Memorization [15.348047288817478]
大規模言語モデル(LLM)の核サンプリング時のテキスト記憶挙動を解析した。
核の大きさが大きくなると、記憶力は緩やかに低下する。
モデルが"ハード"メモリ化に関与していない場合でも、"ソフト"メモリ化を表示できる。
論文 参考訳(メタデータ) (2024-08-29T08:30:33Z) - Demystifying Verbatim Memorization in Large Language Models [67.49068128909349]
大きな言語モデル(LLM)は、しばしば長いシーケンスを冗長に記憶し、しばしば深刻な法的およびプライバシー上の意味を持つ。
我々は, Pythia チェックポイントからのプレトレーニングをインジェクトシーケンスで継続することにより, 制御された環境下での動詞の暗記を学習する枠組みを開発する。
その結果,(1) 動詞の暗記には非自明な繰り返しが必要であり,(2) 後続の(おそらくはより良い)チェックポイントは,アウト・オブ・ディストリビューション・シーケンスであっても,動詞の列を暗記する傾向にあることがわかった。
論文 参考訳(メタデータ) (2024-07-25T07:10:31Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Measures of Information Reflect Memorization Patterns [53.71420125627608]
異なるニューロンの活性化パターンの多様性は、モデル一般化と記憶の反映であることを示す。
重要なことは、情報組織が記憶の2つの形態を指していることである。
論文 参考訳(メタデータ) (2022-10-17T20:15:24Z) - Quantifying Memorization Across Neural Language Models [61.58529162310382]
大規模言語モデル(LM)は、トレーニングデータの一部を記憶するために示され、適切に誘導されると、記憶されたデータを冗長に出力する。
これは、暗記がプライバシーを侵害し(ユーザーデータをエクスポーティングする)、実用性を低下させ(繰り返し覚えやすいテキストは、しばしば品質が低い)、公平性を損なうため、望ましくない。
本稿では、LMが記憶されたトレーニングデータを出力する度合いを定量化する3つの対数線形関係について述べる。
論文 参考訳(メタデータ) (2022-02-15T18:48:31Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。