論文の概要: Understanding Finetuning for Factual Knowledge Extraction
- arxiv url: http://arxiv.org/abs/2406.14785v1
- Date: Thu, 20 Jun 2024 23:27:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 15:12:21.103534
- Title: Understanding Finetuning for Factual Knowledge Extraction
- Title(参考訳): ファクチュアル知識抽出のためのファクチュニングの理解
- Authors: Gaurav Ghosal, Tatsunori Hashimoto, Aditi Raghunathan,
- Abstract要約: 本研究は,事前学習中に不備な既知事実の微調整は,事前学習中にすべての事実が見られた場合でも,既知事実の微調整よりもはるかに悪い事実性を示すものであることを示す。
その結果,事前学習した知識と微調整データとの相互作用に光を当て,知識集約的なタスクを微調整する場合に,事実が事前学習されたモデルにどのように格納されているかを考慮することが重要であることを示した。
- 参考スコア(独自算出の注目度): 45.398982602347765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study the impact of QA fine-tuning data on downstream factuality. We show that fine-tuning on lesser-known facts that are poorly stored during pretraining yields significantly worse factuality than fine-tuning on well-known facts, even when all facts are seen during pretraining. We prove this phenomenon theoretically, showing that training on lesser-known facts can lead the model to ignore subject entity names and instead output a generic plausible response even when the relevant factual knowledge is encoded in the model. On three question answering benchmarks (PopQA, Entity Questions, and MMLU) and two language models (Llama-2-7B and Mistral-7B), we find that (i) finetuning on a completely factual but lesser-known subset of the data deteriorates downstream factuality (5-10%) and (ii) finetuning on a subset of better-known examples matches or outperforms finetuning on the entire dataset. Ultimately, our results shed light on the interaction between pretrained knowledge and finetuning data and demonstrate the importance of taking into account how facts are stored in the pretrained model when fine-tuning for knowledge-intensive tasks.
- Abstract(参考訳): 本研究では,QA微調整データが下流の事実性に与える影響について検討する。
本研究は,事前学習中に不備な既知事実の微調整は,事前学習中にすべての事実が見られた場合でも,既知事実の微調整よりもはるかに悪い事実性を示すものであることを示す。
この現象を理論的に証明し、あまり知られていない事実をトレーニングすることで、モデルが対象のエンティティ名を無視し、関連する事実知識がモデルにエンコードされている場合でも、汎用可能な応答を出力できることを示す。
3つの質問応答ベンチマーク (PopQA, Entity Questions, MMLU) と2つの言語モデル (Llama-2-7B, Mistral-7B) について
i) 完全に事実的だがあまり知られていないデータのサブセットの微調整は、下流の事実性(5-10%)を悪化させ、
(ii) よりよく知られた例のサブセットの微調整は、データセット全体の精細化と一致し、または性能が良くなる。
最終的に,本研究の結果は,事前学習された知識と微調整データの相互作用に光を当て,知識集約的なタスクを微調整する場合に,その事実が事前学習されたモデルにどのように格納されているかを考慮することが重要であることを示した。
関連論文リスト
- Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations? [33.702498916775426]
既存の知識を活用するための微調整モデルの能力に及ぼす新しい知識の影響について検討する。
大規模な言語モデルは、微調整によって新しい事実知識を取得するのに苦労していることを実証する。
新たな知識のサンプルが最終的に学習されるにつれて、モデルが幻覚化する傾向がリニアに増加する。
論文 参考訳(メタデータ) (2024-05-09T17:00:22Z) - Unveiling Imitation Learning: Exploring the Impact of Data Falsity to Large Language Model [6.097530398802087]
本稿では,音の度合いと言語モデルへの影響の関連性について,指導指導を通して検討する。
具体的には,データセットの事実性と指導調律の相関関係について,複数の興味深い知見を得た。
論文 参考訳(メタデータ) (2024-04-15T12:20:09Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Mitigating Temporal Misalignment by Discarding Outdated Facts [58.620269228776294]
大規模な言語モデルは、しばしば時間的ミスアライメントの下で使われ、現在に関する質問に答える。
我々は、ある事実がいつまで真実であるかを予測するタスクとして、事実期間予測を提案する。
私たちのデータとコードはhttps://github.com/mikejqzhang/mitigating_misalignment.comで公開されています。
論文 参考訳(メタデータ) (2023-05-24T07:30:08Z) - Understanding Finetuning for Factual Knowledge Extraction from Language
Models [1.7969777786551426]
ウェブから大量のテキストのコーパスに事前訓練された言語モデル(LM)は、世界に関する様々な種類の知識を含むことが観察されている。
そこで本研究では,一組の事実知識を微調整することで,異なる集合からの質問に対するより良い回答が得られることを示す。
次に, 1-モデル混合と 2-混合ファインタニングの2つの負の効果を, LMの事前学習タスクと組み合わせて検討する。
論文 参考訳(メタデータ) (2023-01-26T18:29:50Z) - FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for
Abstractive Summarization [91.46015013816083]
本稿では,FactPEGについて述べる。FactPEGは,事前学習と微調整における現実性の問題に対処する抽象的な要約モデルである。
分析の結果,FactPEGはゼロショットやスプリショットの設定において,本来の事前学習目標よりも現実的であることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T17:39:14Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - BitFit: Simple Parameter-efficient Fine-tuning for Transformer-based
Masked Language-models [51.53936551681613]
我々は、事前訓練されたBERTモデルのバイアス項(またはバイアス項のサブセット)のみを微調整することは、モデル全体を微調整する(そして、時にはそれよりも優れている)ことを示す。
彼らは、ファインタニングは、新しいタスク固有の言語知識を学ぶのではなく、言語モデリングの訓練によって引き起こされる知識を明らかにすることであるという仮説を支持している。
論文 参考訳(メタデータ) (2021-06-18T16:09:21Z) - On the Interplay Between Fine-tuning and Sentence-level Probing for
Linguistic Knowledge in Pre-trained Transformers [24.858283637038422]
本稿では,BERT,RoBERTa,ALBERTの3種類の事前学習モデルについて検討する。
探究タスクの微調整によって精度が大幅に変化することを発見した。
ファインチューニングは、実際に事前訓練されたモデルの表現を変えるが、ごく少数のケースでのみ、ファインチューニングは探索精度に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-10-06T10:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。