論文の概要: Plug-and-Play Adaptation for Continuously-updated QA
- arxiv url: http://arxiv.org/abs/2204.12785v1
- Date: Wed, 27 Apr 2022 09:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 20:43:00.929914
- Title: Plug-and-Play Adaptation for Continuously-updated QA
- Title(参考訳): 連続更新QAのためのプラグアンドプレイ適応
- Authors: Kyungjae Lee, Wookje Han, Seung-won Hwang, Hwaran Lee, Joonsuk Park,
Sang-Woo Lee
- Abstract要約: 言語モデル(LM)は暗黙の知識ベース(KB)として大きな可能性を示している
実用上、LMの知識を定期的に更新する必要がある。
本稿では,LM に対して大規模更新を行う新しいタスクである連続更新 QA を提案する。
- 参考スコア(独自算出の注目度): 21.665681980293137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) have shown great potential as implicit knowledge bases
(KBs). And for their practical use, knowledge in LMs need to be updated
periodically. However, existing tasks to assess LMs' efficacy as KBs do not
adequately consider multiple large-scale updates. To this end, we first propose
a novel task--Continuously-updated QA (CuQA)--in which multiple large-scale
updates are made to LMs, and the performance is measured with respect to the
success in adding and updating knowledge while retaining existing knowledge. We
then present LMs with plug-in modules that effectively handle the updates.
Experiments conducted on zsRE QA and NQ datasets show that our method
outperforms existing approaches. We find that our method is 4x more effective
in terms of updates/forgets ratio, compared to a fine-tuning baseline.
- Abstract(参考訳): 言語モデル(LM)は暗黙の知識ベース(KB)として大きな可能性を示している。
実際に使うためには、LMの知識を定期的に更新する必要がある。
しかし、kbsとしてlmsの有効性を評価する既存のタスクは、複数の大規模な更新を適切に考慮していない。
この目的のために,我々はまず,lmsに複数の大規模更新を行うタスク連続更新qa(cuqa)を提案し,既存の知識を保ちながら知識の追加と更新を成功させる上で,その性能を測定する。
次に、更新を効果的に処理するプラグインモジュールをLMに提示する。
zsRE QAおよびNQデータセットを用いた実験により,本手法が既存手法より優れていることが示された。
提案手法は,細調整ベースラインに比べて,更新/忘れ率の点で4倍効率が高いことがわかった。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Towards Adapting Reinforcement Learning Agents to New Tasks: Insights from Q-Values [8.694989771294013]
ポリシー勾配メソッドは、サンプル効率のよい方法でそれらを活用する方法に悩まされる限り、多くのドメインで有用です。
我々は、強化学習におけるDQNのカオス的な性質を探求し、トレーニング時に保持する情報を、異なるタスクにモデルを適用するためにどのように再利用するかを理解した。
論文 参考訳(メタデータ) (2024-07-14T21:28:27Z) - Knowledge Editing in Language Models via Adapted Direct Preference Optimization [50.616875565173274]
大きな言語モデル(LLM)は、時間とともに時代遅れになる可能性がある。
知識編集は、高価なリトレーニングを必要としないウェイトアップデートを使用して、この課題を克服することを目的としている。
論文 参考訳(メタデータ) (2024-06-14T11:02:21Z) - Time Sensitive Knowledge Editing through Efficient Finetuning [35.79991957163508]
大きな言語モデル(LLM)は、様々なタスクにおいて印象的な能力を示し、多くのドメインに変革をもたらす。
LLMの知識を最新に保つことは、事前トレーニングが完了するまで、依然として課題である。
既存の位置と編集の知識編集(KE)手法には2つの制限がある。
論文 参考訳(メタデータ) (2024-06-06T20:41:36Z) - Propagating Knowledge Updates to LMs Through Distillation [97.3628651636153]
文脈に基づくアプローチは、エンティティに関する知識を付与し、その知識を広めてより広範な推論を可能にすることができることを示す。
実験により,本手法は,微調整や他の勾配に基づく知識編集手法よりも,知識更新の伝播に有効であることが実証された。
論文 参考訳(メタデータ) (2023-06-15T17:39:50Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Long-Tailed Question Answering in an Open World [46.67715607552547]
我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-11T04:28:58Z) - When Not to Trust Language Models: Investigating Effectiveness of
Parametric and Non-Parametric Memories [58.3421305091187]
本稿では,事実知識を記憶する上でのLMの強みと限界を理解することを目的とする。
LMは、あまり一般的でない事実知識に苦しむと同時に、長期にわたる事実知識の記憶力向上に失敗する。
我々は、必要時にのみ非パラメトリックメモリを検索する、強力かつ効率的な検索拡張LMの簡易かつ効果的な手法を考案する。
論文 参考訳(メタデータ) (2022-12-20T18:30:15Z) - Automatically Recommend Code Updates: Are We There Yet? [14.997510035210842]
本稿では,コード更新を自動的に推奨する最先端のCodeLMを初めて評価する。
その結果,CodeLMは時間的情報を無視した設定では良好に動作しているが,より現実的な時間的シナリオでは困難であることがわかった。
本研究は,実世界のコード更新レコメンデーションにおいて,CodeLMの認識と実際の有効性の間に有意なギャップがあることを明らかにする。
論文 参考訳(メタデータ) (2022-09-15T05:07:25Z) - StreamingQA: A Benchmark for Adaptation to New Knowledge over Time in
Question Answering Models [31.43391633383255]
提案する大規模データセットであるStreamingQAを構築した。
プレトレーニングでは見られない新しい記事を読むことで、四半期毎にモデルを評価します。
我々は,大惨な忘れを回避しつつ,パラメトリックモデルをフルリトレーニングなしで更新可能であることを示す。
論文 参考訳(メタデータ) (2022-05-23T15:33:41Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。