論文の概要: Factors That Support Grounded Responses in LLM Conversations: A Rapid Review
- arxiv url: http://arxiv.org/abs/2511.21762v1
- Date: Mon, 24 Nov 2025 21:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.221275
- Title: Factors That Support Grounded Responses in LLM Conversations: A Rapid Review
- Title(参考訳): LLM会話における接地応答を支える要因:迅速レビュー
- Authors: Gabriele Cesar Iwashima, Claudia Susie Rodrigues, Claudio Dipolitto, Geraldo Xexéo,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザの意図と不一致した出力を生成したり、文脈的根拠を欠いたり、会話中に幻覚を示すことがある。
本研究の目的は,LLM応答を会話目標と整合させ,接地を確保し,幻覚や話題の漂流を減らす手法を同定し,解析することであった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) may generate outputs that are misaligned with user intent, lack contextual grounding, or exhibit hallucinations during conversation, which compromises the reliability of LLM-based applications. This review aimed to identify and analyze techniques that align LLM responses with conversational goals, ensure grounding, and reduce hallucination and topic drift. We conducted a Rapid Review guided by the PRISMA framework and the PICO strategy to structure the search, filtering, and selection processes. The alignment strategies identified were categorized according to the LLM lifecycle phase in which they operate: inference-time, post-training, and reinforcement learning-based methods. Among these, inference-time approaches emerged as particularly efficient, aligning outputs without retraining while supporting user intent, contextual grounding, and hallucination mitigation. The reviewed techniques provided structured mechanisms for improving the quality and reliability of LLM responses across key alignment objectives.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザ意図と不一致な出力を生成したり、文脈的根拠を欠いたり、会話中に幻覚を呈したりし、LLMベースのアプリケーションの信頼性を損なうことがある。
本研究の目的は,LLM応答を会話目標と整合させ,接地を確保し,幻覚や話題の漂流を減らす手法を同定し,解析することであった。
PRISMAフレームワークによるRapid ReviewとPICOによる検索,フィルタリング,選択プロセスの構造化を行った。
同定したアライメント戦略は, 推論時間, ポストトレーニング, 強化学習に基づく手法を用いて, LLMライフサイクルの段階に従って分類した。
これらのうち、推論時間のアプローチは特に効率的で、ユーザー意図、文脈的接地、幻覚の緩和をサポートしながら、トレーニングをせずにアウトプットを調整している。
レビューした手法は、キーアライメントの目的を越えてLLM応答の品質と信頼性を向上させるための構造化メカニズムを提供する。
関連論文リスト
- Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Digging Into the Internal: Causality-Based Analysis of LLM Function Calling [20.565096639708162]
FC(Function Calling)は,ユーザ命令による大規模言語モデルのコンプライアンスを大幅に向上させることができることを示す。
我々は,従来のプロンプト法と比較してFCベースの命令の有効性を比較する実験を行った。
FCは、悪意のある入力を検知する従来のプロンプト法よりも平均で約135%の性能向上を示した。
論文 参考訳(メタデータ) (2025-09-18T08:30:26Z) - Mapping the Course for Prompt-based Structured Prediction [5.483149122038912]
本稿では,LLMの予測力と推論手法による構造的整合性を組み合わせることを提案する。
構造的予測目標を用いたキャリブレーションと微調整が,課題に対する性能向上につながることを示す。
論文 参考訳(メタデータ) (2025-08-20T22:00:28Z) - Feedback-Induced Performance Decline in LLM-Based Decision-Making [6.5990946334144756]
大規模言語モデル(LLM)は、自然言語の問題記述からコンテキストを抽出することができる。
本稿では,マルコフ決定過程(MDP)におけるこれらのモデルの挙動について考察する。
論文 参考訳(メタデータ) (2025-07-20T10:38:56Z) - Aligning Large Language Models to Follow Instructions and Hallucinate Less via Effective Data Filtering [66.5524727179286]
NOVAは、幻覚を減らすための学習知識とよく一致した高品質なデータを特定するために設計されたフレームワークである。
内部整合性探索(ICP)とセマンティック等価同定(SEI)が含まれており、LLMが命令データとどれだけ親しみやすいかを測定する。
選択したサンプルの品質を確保するため,親しみ以上の特性を考慮した専門家による報酬モデルを導入する。
論文 参考訳(メタデータ) (2025-02-11T08:05:56Z) - MetaReflection: Learning Instructions for Language Agents using Past Reflections [11.028256182234017]
本稿では,言語エージェントの性能を向上させる新しいオフライン強化学習手法であるMetaReflectionを紹介する。
本稿では, 複雑な論理的推論, バイオメディカルセマンティックな類似性, オープンワールド質問応答, 脆弱性検出など, 複数領域にわたる評価によるメタリフレクションの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-13T10:51:43Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Prompting Fairness: Integrating Causality to Debias Large Language Models [19.76215433424235]
大規模言語モデル(LLM)は偏見や差別的な反応を生じさせる可能性がある。
社会的偏見に対処するための因果性誘導型脱バイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:46:28Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。