論文の概要: Knowledgeable Preference Alignment for LLMs in Domain-specific Question
Answering
- arxiv url: http://arxiv.org/abs/2311.06503v1
- Date: Sat, 11 Nov 2023 07:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:22:43.907722
- Title: Knowledgeable Preference Alignment for LLMs in Domain-specific Question
Answering
- Title(参考訳): ドメイン固有の質問応答におけるLLMの知識的選好アライメント
- Authors: Yichi Zhang, Zhuo Chen, Yin Fang, Lei Cheng, Yanxi Lu, Fangming Li,
Wen Zhang, Huajun Chen
- Abstract要約: 大規模言語モデル(LLM)は学術や産業で広く注目を集めている。
現実世界のアプリケーションとして、LLMによって生成されたコンテンツは、顧客にサービスを提供するためにユーザフレンドリであるべきです。
スタイル選好セットと知識選好セットという2種類の選好セットをそれぞれ構成する知識選好アライメント(KnowPAT)を導入する。
- 参考スコア(独自算出の注目度): 38.97001111138232
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, the development of large language models (LLMs) has attracted wide
attention in academia and industry. Deploying LLMs to real scenarios is one of
the key directions in the current Internet industry. In this paper, we present
a novel pipeline to apply LLMs for domain-specific question answering (QA) that
incorporates domain knowledge graphs (KGs), addressing an important direction
of LLM application. As a real-world application, the content generated by LLMs
should be user-friendly to serve the customers. Additionally, the model needs
to utilize domain knowledge properly to generate reliable answers. These two
issues are the two major difficulties in the LLM application as vanilla
fine-tuning can not adequately address them. We think both requirements can be
unified as the model preference problem that needs to align with humans to
achieve practical application. Thus, we introduce Knowledgeable Preference
AlignmenT (KnowPAT), which constructs two kinds of preference set called style
preference set and knowledge preference set respectively to tackle the two
issues. Besides, we design a new alignment objective to align the LLM
preference with human preference, aiming to train a better LLM for
real-scenario domain-specific QA to generate reliable and user-friendly
answers. Adequate experiments and comprehensive with 15 baseline methods
demonstrate that our KnowPAT is an outperforming pipeline for real-scenario
domain-specific QA with LLMs. Our code is open-source at
https://github.com/zjukg/KnowPAT.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)の開発が学術や産業で広く注目を集めている。
LLMを実際のシナリオにデプロイすることは、現在のインターネット産業における重要な方向のひとつです。
本稿では,ドメイン知識グラフ(KG)を組み込んだドメイン固有質問応答(QA)にLLMを適用するパイプラインを提案する。
現実世界のアプリケーションとして、llmsが生成するコンテンツはユーザフレンドリーでなければならない。
さらに、モデルは信頼できる回答を生成するためにドメイン知識を適切に利用する必要があります。
この2つの問題は、バニラの微調整が適切に対処できないため、llmアプリケーションにおける2つの大きな困難である。
両方の要件は、実用的応用を達成するために人間と協調する必要があるモデル選好問題として統一できると考えています。
そこで我々は,この2つの課題に対処するために,スタイル選好セットと知識選好セットという2種類の選好セットを構築するKnowPAT(KnowPAT)を提案する。
さらに,LLMの嗜好と人間の嗜好を一致させる新たなアライメント目的を設計し,実シナリオドメイン固有のQAに対して,信頼性とユーザフレンドリな回答を生成するために,より良いLLMをトレーニングすることを目的とする。
実験と15のベースラインメソッドによる総合的な実験により、我々のKnowPATはLLMを用いた実シナリオドメイン固有のQAにおいて、優れたパイプラインであることが示された。
私たちのコードはhttps://github.com/zjukg/KnowPAT.comでオープンソースです。
関連論文リスト
- SimRAG: Self-Improving Retrieval-Augmented Generation for Adapting Large Language Models to Specialized Domains [45.349645606978434]
Retrieval-augmented Generation (RAG) は大規模言語モデル(LLM)の質問応答能力を向上させる
しかし、科学や医学などの専門分野に汎用的なRAGシステムを適用することは、分散シフトやドメイン固有のデータへのアクセス制限など、ユニークな課題を生んでいる。
ドメイン適応のための質問応答と質問生成のジョイント機能を備えた自己学習手法であるSimRAGを提案する。
論文 参考訳(メタデータ) (2024-10-23T15:24:16Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Towards Hierarchical Multi-Agent Workflows for Zero-Shot Prompt Optimization [19.200989737492595]
大規模言語モデル(LLM)は、ユーザの質問に答える上で大きな進歩を見せている。
LLMの出力の品質はプロンプト設計に大きく依存しており、優れたプロンプトによってLLMが非常に難しい問題に正しく答えられる可能性がある。
LLMの階層構造を提案し、まず、正確な指示と正確な単語を階層的に生成し、次に、このプロンプトを用いてユーザクエリの最終回答を生成する。
論文 参考訳(メタデータ) (2024-05-30T17:05:45Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。