論文の概要: Resolving Knowledge Conflicts in Domain-specific Data Selection: A Case Study on Medical Instruction-tuning
- arxiv url: http://arxiv.org/abs/2505.21958v1
- Date: Wed, 28 May 2025 04:18:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.410033
- Title: Resolving Knowledge Conflicts in Domain-specific Data Selection: A Case Study on Medical Instruction-tuning
- Title(参考訳): ドメイン固有のデータ選択における知識紛争の解決--医学教育の事例から-
- Authors: Qihuang Zhong, Liang Ding, Fei Liao, Juhua Liu, Bo Du, Dacheng Tao,
- Abstract要約: ドメイン固有の命令チューニングは、大規模言語モデルの性能向上のためのデファクトスタンダードとなっている。
LLMの実際のニーズを満たすドメイン固有の命令調整データを選択するための知識対応データ選択フレームワークを提案する。
大きな知識の衝突でデータをフィルタリングし、高品質で多様なデータをサンプリングすることで、KDSはLLMの能力を効果的に刺激し、ドメイン固有のパフォーマンスを向上させることができる。
- 参考スコア(独自算出の注目度): 83.99974309930072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain-specific instruction-tuning has become the defacto standard for improving the performance of large language models (LLMs) in specialized applications, e.g., medical question answering. Since the instruction-tuning dataset might contain redundant or low-quality data, data selection (DS) is usually required to maximize the data efficiency. Despite the successes in the general domain, current DS methods often struggle to select the desired data for domain-specific instruction-tuning. One of the main reasons is that they neglect the impact of knowledge conflicts, i.e., the discrepancy between LLMs' pretrained knowledge and context knowledge of instruction data, which could damage LLMs' prior abilities and lead to hallucination. To this end, we propose a simple-yet-effective Knowledge-aware Data Selection (namely KDS) framework to select the domain-specific instruction-tuning data that meets LLMs' actual needs. The core of KDS is to leverage two knowledge-aware metrics for quantitatively measuring knowledge conflicts from two aspects: context-memory knowledge alignment and intra-memory knowledge consistency. By filtering the data with large knowledge conflicts and sampling the high-quality and diverse data, KDS can effectively stimulate the LLMs' abilities and achieve better domain-specific performance. Taking the medical domain as the testbed, we conduct extensive experiments and empirically prove that KDS surpasses the other baselines and brings significant and consistent performance gains among all LLMs. More encouragingly, KDS effectively improves the model generalization and alleviates the hallucination problem.
- Abstract(参考訳): 大規模言語モデル(LLM)の性能向上のためのデファクトスタンダードとなっている。
命令チューニングデータセットは冗長または低品質のデータを含む可能性があるため、データ選択(DS)は通常、データの効率を最大化するために必要となる。
一般的なドメインでの成功にもかかわらず、現在のDSメソッドはドメイン固有の命令チューニングのために望ましいデータを選択するのに苦労することが多い。
主な理由の1つは、LLMの事前訓練された知識と命令データの文脈的知識との相違がLLMの先行能力を損なう可能性があり、幻覚につながるという知識衝突の影響を無視していることである。
そこで本研究では,LLMの実際のニーズを満たす領域固有の命令調整データを選択するための,シンプルなyet- effective Knowledge-aware Data Selection(KDS)フレームワークを提案する。
KDSの中核は、2つの知識認識メトリクスを活用して、文脈記憶知識アライメントとメモリ内知識一貫性という2つの側面から知識衝突を定量的に測定することである。
大きな知識の衝突でデータをフィルタリングし、高品質で多様なデータをサンプリングすることで、KDSはLLMの能力を効果的に刺激し、ドメイン固有のパフォーマンスを向上させることができる。
医療領域をテストベッドとして、我々は広範囲な実験を行い、KDSが他のベースラインを超えることを実証し、全てのLSMにおいて顕著かつ一貫したパフォーマンス向上をもたらすことを実証した。
さらに、KDSはモデル一般化を効果的に改善し、幻覚問題を緩和する。
関連論文リスト
- Enhancing LLMs via High-Knowledge Data Selection [13.769398867340296]
大規模言語モデル(LLM)の性能は、そのトレーニングデータの品質と本質的に関連している。
我々は,知識の次元から高品質なデータを選択するための,新しい,勾配のないハイノウレッジ・スコラー(HKS)を提案する。
我々は、高知識バイリンガルデータセット上でモデルを訓練し、実験結果から、知識集約的および一般理解的なタスクにおいて、スコアラーがモデルの性能を向上させることを示す。
論文 参考訳(メタデータ) (2025-05-20T08:21:37Z) - Structural Entropy Guided Agent for Detecting and Repairing Knowledge Deficiencies in LLMs [11.724887822269528]
大規模言語モデル(LLM)は、膨大な事前学習コーパスを活用することで、前例のない性能を達成した。
彼らの業績は、医学や科学研究のような知識集約的な領域において、依然として最適以下である。
本稿では,LLMの内在的知識不足に対処する構造エントロピー誘導型知識ナビゲータ(SENATOR)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T02:21:36Z) - Exploring the Generalizability of Factual Hallucination Mitigation via Enhancing Precise Knowledge Utilization [37.59724553583446]
PKUEは、正確で単純な事実質問に対する自己生成応答のモデルを微調整する。
大規模な実験により、PKUEはLLM全体の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-02-26T13:34:52Z) - Aligning Large Language Models to Follow Instructions and Hallucinate Less via Effective Data Filtering [66.5524727179286]
NOVAは、幻覚を減らすための学習知識とよく一致した高品質なデータを特定するために設計されたフレームワークである。
内部整合性探索(ICP)とセマンティック等価同定(SEI)が含まれており、LLMが命令データとどれだけ親しみやすいかを測定する。
選択したサンプルの品質を確保するため,親しみ以上の特性を考慮した専門家による報酬モデルを導入する。
論文 参考訳(メタデータ) (2025-02-11T08:05:56Z) - Model-based Large Language Model Customization as Service [34.949731264918846]
OpenAIやGoogleといったプロバイダによる大規模言語モデル(LLM)サービスは、一般的なタスクでは優れているが、ドメイン固有のアプリケーションではパフォーマンスが劣ることが多い。
Llamdexは、LLMのカスタマイズをサービスとして促進する新しいフレームワークで、クライアントはデータではなく、トレーニング済みのドメイン固有モデルをアップロードする。
実験によると、Llamdexは、同じプライバシー制約の下で、最先端のプライベートデータ合成メソッドに対して、ドメイン固有の精度を最大26%向上する。
論文 参考訳(メタデータ) (2024-10-14T13:18:20Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。