論文の概要: CPR: Mitigating Large Language Model Hallucinations with Curative Prompt Refinement
- arxiv url: http://arxiv.org/abs/2510.12029v1
- Date: Tue, 14 Oct 2025 00:27:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.12408
- Title: CPR: Mitigating Large Language Model Hallucinations with Curative Prompt Refinement
- Title(参考訳): CPR:キュレーティブ・プロンプト・リファインメントによる大規模言語モデル幻覚の緩和
- Authors: Jung-Woo Shim, Yeong-Joon Ju, Ji-Hoon Park, Seong-Whan Lee,
- Abstract要約: Curative Prompt Refinement (CPR) は、CPR (Culative Prompt Refinement) のためのプラグイン・アンド・プレイフレームワークである。
CPRは、不正なプロンプトをクリーン化し、追加の情報的タスク記述を生成する。
CPRは元のプロンプトに対して、外部の知識なしに90%以上の勝利率を達成する。
- 参考スコア(独自算出の注目度): 49.435669307386156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in large language models (LLMs) highlight their fluency in generating responses to diverse prompts. However, these models sometimes generate plausible yet incorrect ``hallucinated" facts, undermining trust. A frequent but often overlooked cause of such errors is the use of poorly structured or vague prompts by users, leading LLMs to base responses on assumed rather than actual intentions. To mitigate hallucinations induced by these ill-formed prompts, we introduce Curative Prompt Refinement (CPR), a plug-and-play framework for curative prompt refinement that 1) cleans ill-formed prompts, and 2) generates additional informative task descriptions to align the intention of the user and the prompt using a fine-tuned small language model. When applied to language models, we discover that CPR significantly increases the quality of generation while also mitigating hallucination. Empirical studies show that prompts with CPR applied achieves over a 90\% win rate over the original prompts without any external knowledge.
- Abstract(参考訳): 大規模言語モデル(LLMs)の最近の進歩は、多様なプロンプトに対する応答を生成する際の流布度を強調している。
しかし、これらのモデルは時に可塑性かつ不正な『非難された』事実を生成し、信頼を損なうことがある。
このようなエラーの頻繁で見落とされがちな原因は、ユーザによる構造化されていないプロンプトやあいまいなプロンプトの使用であり、LCMは実際の意図ではなく、仮定された応答をベースにしている。
これらの不規則なプロンプトによって引き起こされる幻覚を緩和するため、キュラティブ・プロンプト・リファインメント(CPR)を導入し、キュラティブ・プロンプト・リファインメントのためのプラグアンドプレイフレームワークを提案する。
1)未処理のプロンプトをきれいにし、
2) 微調整された小言語モデルを用いて, ユーザの意図とプロンプトを一致させるために, 付加的な情報的タスク記述を生成する。
言語モデルに適用すると、CPRは幻覚を緩和しながら生成の質を著しく向上させる。
実証的な研究によると、CPRを適用したプロンプトは、外部の知識がなくても、元のプロンプトよりも90%以上の勝利率を達成する。
関連論文リスト
- Multi-stage Prompt Refinement for Mitigating Hallucinations in Large Language Models [49.435669307386156]
MPR(Multi-stage Prompt Refinement)は、複数のステージにわたる不整形プロンプトを体系的に改善するためのフレームワークである。
MPRは、追加の文脈でプロンプトの明快さを反復的に強化し、最も関連する入力を優先順位付けするためにランク付けされた自己回帰機構を使用する。
幻覚ベンチマークの結果、MPRは原型と比較して85%以上の勝利率を達成した。
論文 参考訳(メタデータ) (2025-10-14T00:31:36Z) - DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises [28.72485319617863]
幻覚を緩和する新しいプロンプトアルゴリズムDecoPromptを提案する。
DecoPrompt は LLM を利用して偽前提のプロンプトを "デコード" する。
2つのデータセットで実験を行い、DecoPromptは異なるLLMから出力された幻覚を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2024-11-12T00:48:01Z) - Mitigating Large Language Model Hallucination with Faithful Finetuning [46.33663932554782]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
彼らは「幻覚」として知られる、流動的で不合理な反応を生み出す傾向にある
論文 参考訳(メタデータ) (2024-06-17T07:16:07Z) - Multi-Modal Hallucination Control by Visual Information Grounding [121.6983694815504]
本稿では,VLM(Generative Vision-Language Models)が,入力画像に常に接するとは限らない,可聴性のあるテキスト応答を生成する傾向があることを示す。
即時増幅のための新しいサンプリング手法であるM3ID(Multi-Modal Mutual-Information Decoding)を導入する。
M3IDは、言語に対する参照画像の影響を増幅し、視覚的プロンプトと高い相互情報を持つトークンの生成を優先する。
論文 参考訳(メタデータ) (2024-03-20T22:05:18Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - Effective Prompt Extraction from Language Models [70.00099540536382]
本稿では,迅速な抽出攻撃の有効性を評価するための枠組みを提案する。
3つの異なるプロンプトと11の基盤となる大規模言語モデルによる実験では、単純なテキストベースの攻撃は、実際に高い確率でプロンプトを明らかにすることができる。
本フレームワークは,抽出したプロンプトがモデル幻覚ではなく実際の秘密プロンプトであるか否かを高精度に判定する。
論文 参考訳(メタデータ) (2023-07-13T16:15:08Z) - Trapping LLM Hallucinations Using Tagged Context Prompts [11.655802601887197]
本稿では,大規模言語モデルがドメイン知識の外部で実行された場合に,インスタンスを認識・フラグする新しい手法を提案する。
組込みタグと組み合わされたコンテキストを用いることで,生成言語モデル内の幻覚に対処できることが判明した。
論文 参考訳(メタデータ) (2023-06-09T17:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。