論文の概要: KnowTuning: Knowledge-aware Fine-tuning for Large Language Models
- arxiv url: http://arxiv.org/abs/2402.11176v1
- Date: Sat, 17 Feb 2024 02:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:03:26.381066
- Title: KnowTuning: Knowledge-aware Fine-tuning for Large Language Models
- Title(参考訳): KnowTuning: 大規模言語モデルのための知識対応ファインチューニング
- Authors: Yougang Lyu, Lingyong Yan, Shuaiqiang Wang, Haibo Shi, Dawei Yin,
Pengjie Ren, Zhumin Chen, Maarten de Rijke, Zhaochun Ren
- Abstract要約: 大規模言語モデル(LLM)の知識認識を明確かつ暗黙的に改善する知識認識ファインタニング(KnowTuning)手法を提案する。
我々は、LLMを訓練し、答えにおける知識の3倍を明示的に識別するために、明示的な知識認識生成ステージを考案する。
また,LLMを学習し,信頼できない知識と信頼できない知識を暗黙的に区別するために,暗黙的な知識認識比較ステージを提案する。
- 参考スコア(独自算出の注目度): 86.72825837235344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their success at many natural language processing (NLP) tasks, large
language models (LLMs) still struggle to effectively leverage knowledge for
knowledge-intensive tasks, manifesting limitations such as generating
incomplete, non-factual, or illogical answers. These limitations stem from
inadequate knowledge awareness of LLMs during vanilla fine-tuning. To address
these problems, we propose a knowledge-aware fine-tuning (KnowTuning) method to
explicitly and implicitly improve the knowledge awareness of LLMs. We devise an
explicit knowledge-aware generation stage to train LLMs to explicitly identify
knowledge triples in answers. We also propose an implicit knowledge-aware
comparison stage to train LLMs to implicitly distinguish between reliable and
unreliable knowledge, in three aspects: completeness, factuality, and
logicality. Extensive experiments on both generic and medical question
answering (QA) datasets confirm the effectiveness of KnowTuning, through
automatic and human evaluations, across various sizes of LLMs. Finally, we
demonstrate that the improvements of KnowTuning generalize to unseen QA
datasets.
- Abstract(参考訳): 多くの自然言語処理(NLP)タスクで成功したにも拘わらず、大きな言語モデル(LLM)は知識集約的なタスクの知識を効果的に活用することに苦慮し、不完全、非実効的、または非論理的な回答を生成するような限界を示す。
これらの制限は、バニラの微調整におけるllmの知識の不十分さに起因する。
これらの問題に対処するために,LLMの知識認識を明確かつ暗黙的に改善する知識対応微調整(KnowTuning)手法を提案する。
llmをトレーニングし、回答の3つの知識を明確に識別するために、明示的な知識認識生成ステージを考案する。
また,LLMを学習し,信頼できない知識と信頼できない知識とを,完全性,事実性,論理性という3つの側面で区別することを提案する。
総合的および医療的質問応答(QA)データセットの広範な実験により、LLMのさまざまなサイズにわたる自動的および人的評価を通じて、KnowTuningの有効性が確認された。
最後に、KnowTuningの改善が、目に見えないQAデータセットに一般化されることを実証する。
関連論文リスト
- Don't Hallucinate, Abstain: Identifying LLM Knowledge Gaps via Multi-LLM
Collaboration [41.58960340023974]
本研究では,LLMの知識ギャップを同定し,知識ギャップが存在する場合の質問への回答を控えるアプローチについて検討する。
保留集合上での自己回帰と過度信頼の失敗により、我々は2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-01T06:11:49Z) - Learning to Trust Your Feelings: Leveraging Self-awareness in LLMs for
Hallucination Mitigation [9.730412606588335]
我々は,Large Language Models (LLMs) の内的知識状態の識別と表現能力を評価する。
本稿では,LLMの事実と正直性を高めるために強化学習を活用する,知識フィードバックからの強化学習(RLKF)トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-27T16:19:30Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Boosting In-Context Learning with Factual Knowledge [39.93507764191706]
In-Context Learning (ICL) over Large Language Model (LLMs) は、いくつかのトレーニング例を条件に、これまで見つからなかったタスクを解決することを目的としている。
本稿では、3つの中核面におけるICLの性能に事実知識が不可欠であることを実証する。
In-Context Tuning (KICT) フレームワークを導入し,ICLの性能向上を図る。
論文 参考訳(メタデータ) (2023-09-26T09:06:39Z) - Investigating the Factual Knowledge Boundary of Large Language Models
with Retrieval Augmentation [91.30946119104111]
大規模言語モデル(LLM)は,質問に応答する能力に対して,波及しない自信を持っていることを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
また, LLM は, 回答の定式化に際し, 提案した検索結果に依存する傾向が認められた。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。