論文の概要: Aligning Large Language Models to Follow Instructions and Hallucinate Less via Effective Data Filtering
- arxiv url: http://arxiv.org/abs/2502.07340v1
- Date: Tue, 11 Feb 2025 08:05:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:10:13.937115
- Title: Aligning Large Language Models to Follow Instructions and Hallucinate Less via Effective Data Filtering
- Title(参考訳): 大規模言語モデルによる効果的なデータフィルタリングによる指示の追従と幻覚の低減
- Authors: Shuzheng Si, Haozhe Zhao, Gang Chen, Cheng Gao, Yuzhuo Bai, Zhitong Wang, Kaikai An, Kangyang Luo, Chen Qian, Fanchao Qi, Baobao Chang, Maosong Sun,
- Abstract要約: LLMの訓練は、訓練の段階において、馴染みのない知識を含むデータに基づいて、LLMを過度に信頼し、幻覚を奨励することができる。
幻覚を減らすためのLLMの学習知識とよく一致した高品質なデータを識別する新しいフレームワークであるNOVAを導入する。
- 参考スコア(独自算出の注目度): 66.5524727179286
- License:
- Abstract: Training LLMs on data that contains unfamiliar knowledge during the instruction tuning stage can make LLMs overconfident and encourage hallucinations. To address this challenge, we introduce a novel framework, NOVA, which identifies high-quality data that aligns well with the LLM's learned knowledge to reduce hallucinations. NOVA includes Internal Consistency Probing (ICP) and Semantic Equivalence Identification (SEI) to measure how familiar the LLM is with instruction data. Specifically, ICP evaluates the LLM's understanding of the given instruction by calculating the tailored consistency among multiple self-generated responses. SEI further assesses the familiarity of the LLM with the target response by comparing it to the generated responses, using the proposed semantic clustering and well-designed voting strategy. Finally, we introduce an expert-aligned reward model, considering characteristics beyond just familiarity to enhance data quality. By considering data quality and avoiding unfamiliar data, we can utilize the selected data to effectively align LLMs to follow instructions and hallucinate less. Extensive experiments and analysis show that NOVA significantly reduces hallucinations and allows LLMs to maintain a strong ability to follow instructions.
- Abstract(参考訳): LLMの訓練は、訓練の段階において、馴染みのない知識を含むデータに基づいて、LLMを過度に信頼し、幻覚を奨励することができる。
この課題に対処するために,幻覚を減らすためのLLMの学習知識と整合した高品質なデータを特定する新しいフレームワークであるNOVAを導入する。
NOVAには内部一貫性探索(ICP)とセマンティック等価同定(SEI)が含まれており、命令データとLLMがどの程度親しみやすいかを測定する。
具体的には、ICPは、複数の自己生成応答の調整された一貫性を計算することにより、与えられた命令に対するLLMの理解を評価する。
SEIは、提案したセマンティッククラスタリングとよく設計された投票戦略を用いて、LLMとターゲット応答との親和性をさらに評価する。
最後に,データ品質向上のため,慣れ親しみ以上の特徴を考慮し,専門家による報酬モデルを導入する。
データの品質を考慮し、不慣れなデータを避けることで、選択したデータを利用して、LSMを効果的に調整し、指示に従い、幻覚を少なくすることができる。
大規模な実験と分析により、NOVAは幻覚を著しく減らし、LSMが指示に従う強力な能力を維持できることが示されている。
関連論文リスト
- Aligning Instruction Tuning with Pre-training [81.4748965653345]
そこで我々は,AITP(Aligning Instruction Tuning with Pre-training)を提案する。
8つのベンチマークで3つの完全にオープンな大規模言語モデル(LLM)上で,AITPによる一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2025-01-16T08:27:40Z) - Data Quality Control in Federated Instruction-tuning of Large Language Models [43.29678396558287]
データ品質制御(FedDQC)を備えた大規模言語モデル(LLM)のフェデレーション・インストラクション・チューニングの新しいフレームワークを提案する。
提案手法では,各クライアントの命令応答アライメント(IRA)を評価するための効率的なメトリクスを導入し,単一ショット推論によるノイズの多いデータを同定する。
我々は4つの合成データセットと実世界のデータセットについて広範な実験を行い、この手法を集中的な設定から適応したベースラインと比較した。
論文 参考訳(メタデータ) (2024-10-15T12:14:57Z) - Ingest-And-Ground: Dispelling Hallucinations from Continually-Pretrained LLMs with RAG [2.7972592976232833]
プライバシ固有の知識ベースでベースLLMモデルを継続的に事前トレーニングし、セマンティックRAGレイヤで拡張します。
提案手法は,プライバシ関連クエリの処理において,モデル性能を向上することを示す。
論文 参考訳(メタデータ) (2024-09-30T20:32:29Z) - MACAROON: Training Vision-Language Models To Be Your Engaged Partners [95.32771929749514]
大規模視覚言語モデル(LVLM)は、質問が曖昧でラベルが付されていない場合でも詳細な応答を生成する。
本研究では,LVLMを受動的回答提供者から積極的参加パートナーへ移行することを目的とする。
我々は、LVLMに対して、ラベルなし質問に対するコントラスト応答対を自律的に生成するように指示する、ContrAstive pReference Optimizationのための自己iMaginAtionであるMACAROONを紹介する。
論文 参考訳(メタデータ) (2024-06-20T09:27:33Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Reflection-Tuning: Data Recycling Improves LLM Instruction-Tuning [79.32236399694077]
トレーニングセットの低品質データは、通常、チューニングのチューニングに有害である。
我々は「反射チューニング」と呼ばれる新しい手法を提案する。
このアプローチでは、オラクルLSMを使用して、データ内の命令や応答の質を検査し、向上することで、元のトレーニングデータをリサイクルする。
論文 参考訳(メタデータ) (2023-10-18T05:13:47Z) - Interpreting Learned Feedback Patterns in Large Language Models [11.601799960959214]
我々は、微調整言語モデルのアクティベーションにおいて暗黙的にフィードバック信号を推定するプローブを訓練する。
これらの推定値を真のフィードバックと比較し、LFPの精度を微調整フィードバックと比較する。
我々は、GPT-4が記述し、LFPに関連するものとして分類する特徴に対して、正のフィードバック入力と相関する神経特徴を比較して、プローブを検証する。
論文 参考訳(メタデータ) (2023-10-12T09:36:03Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。