論文の概要: LLM Enhancement with Domain Expert Mental Model to Reduce LLM Hallucination with Causal Prompt Engineering
- arxiv url: http://arxiv.org/abs/2509.10818v1
- Date: Sat, 13 Sep 2025 14:35:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.79485
- Title: LLM Enhancement with Domain Expert Mental Model to Reduce LLM Hallucination with Causal Prompt Engineering
- Title(参考訳): ドメインエキスパート精神モデルを用いたLLMの強化による因果プロンプト工学によるLLM幻覚の低減
- Authors: Boris Kovalerchuk, Brent D. Fegley,
- Abstract要約: 本稿では,人間の機械対話とモノトーンブールとk値関数を最適化した技術を用いて,意思決定の計算処理可能なパーソナルエキスパート精神モデル(EMM)を探索する手法を提案する。
LLMプロンプトエンジニアリングのためのEMMアルゴリズムには,因子同定,(2)因子の階層的構造化,(3)一般化された専門家精神モデル仕様の生成,(4)その仕様から詳細な専門家精神モデルを生成する4つのステップがある。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Difficult decision-making problems abound in various disciplines and domains. The proliferation of generative techniques, especially large language models (LLMs), has excited interest in using them for decision support. However, LLMs cannot yet resolve missingness in their training data, leading to hallucinations. Retrieval-Augmented Generation (RAG) enhances LLMs by incorporating external information retrieval, reducing hallucinations and improving accuracy. Yet, RAG and related methods are only partial solutions, as they may lack access to all necessary sources or key missing information. Even everyday issues often challenge LLMs' abilities. Submitting longer prompts with context and examples is one approach to address knowledge gaps, but designing effective prompts is non-trivial and may not capture complex mental models of domain experts. For tasks with missing critical information, LLMs are insufficient, as are many existing systems poorly represented in available documents. This paper explores how LLMs can make decision-making more efficient, using a running example of evaluating whether to respond to a call for proposals. We propose a technology based on optimized human-machine dialogue and monotone Boolean and k-valued functions to discover a computationally tractable personal expert mental model (EMM) of decision-making. Our EMM algorithm for LLM prompt engineering has four steps: (1) factor identification, (2) hierarchical structuring of factors, (3) generating a generalized expert mental model specification, and (4) generating a detailed generalized expert mental model from that specification.
- Abstract(参考訳): 難しい意思決定問題は、様々な分野や領域に多い。
生成技術,特に大規模言語モデル(LLM)の普及は,意思決定支援にそれらを使用することにワクワクしている。
しかし、LSMはトレーニングデータの欠如をまだ解決できず、幻覚に繋がる。
Retrieval-Augmented Generation (RAG)は、外部情報検索を取り入れ、幻覚を減らし、精度を向上させることでLLMを強化する。
しかし、RAGと関連する手法は、必要なすべてのソースや重要な欠落情報にアクセスできないため、部分的な解決策に過ぎない。
日常の問題でさえもLLMの能力に挑戦することが多い。
コンテキストや例を使って長いプロンプトを送信することは、知識ギャップに対処するための1つのアプローチであるが、効果的なプロンプトを設計するのは簡単ではなく、ドメインエキスパートの複雑なメンタルモデルを捉えない可能性がある。
クリティカルな情報が不足しているタスクに対しては、LLMは不十分である。
本稿では,提案要求に応答するかどうかを評価する実例を用いて,LLMが意思決定をより効率的にする方法について考察する。
本稿では,人間の機械対話とモノトーンブールとk値関数を最適化した技術を用いて,意思決定の計算処理可能なパーソナルエキスパート精神モデル(EMM)を探索する手法を提案する。
LLMプロンプトエンジニアリングのためのEMMアルゴリズムは,(1)因子同定,(2)因子の階層的構造化,(3)一般化された専門家精神モデル仕様の生成,(4)その仕様から詳細な専門家精神モデルを生成する4つのステップを有する。
関連論文リスト
- Reasoning LLMs are Wandering Solution Explorers [5.3795217858078805]
本稿では、系統的な問題解決を構成するものを定式化し、系統的な探検家ではなく、移動者である理由を明らかにする共通障害モードを特定する。
以上の結果から,現在のモデルの性能は,複雑性が増大するにつれて著しく低下するが,単純なタスクに適していると考えられることが示唆された。
論文 参考訳(メタデータ) (2025-05-26T17:59:53Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Prompt Recursive Search: A Living Framework with Adaptive Growth in LLM Auto-Prompting [22.025533583703126]
大規模言語モデル(LLM)のためのPRS(Prompt Recursive Search)フレームワークを提案する。
PRSフレームワークは、問題複雑性と調整可能な構造の評価を取り入れ、エラーの可能性の低減を確実にする。
The Chain of Thought(CoT)法と比較して, PRS法は, Llama3-7Bモデルを用いてBBHデータセットの精度を8%向上し, 22%の改善を実現した。
論文 参考訳(メタデータ) (2024-08-02T17:59:42Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。