論文の概要: LLM-CAS: Dynamic Neuron Perturbation for Real-Time Hallucination Correction
- arxiv url: http://arxiv.org/abs/2512.18623v1
- Date: Sun, 21 Dec 2025 06:54:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.428212
- Title: LLM-CAS: Dynamic Neuron Perturbation for Real-Time Hallucination Correction
- Title(参考訳): LLM-CAS:リアルタイム幻覚矯正のための動的ニューロン摂動
- Authors: Jensen Zhang, Ningyuan Liu, Yijia Fan, Zihao Huang, Qinglin Zeng, Kaitong Cai, Jian Wang, Keze Wang,
- Abstract要約: 大規模言語モデル(LLM)は、事実的あるいは文脈的基盤を持たない幻覚的コンテンツを生成することが多い。
階層的強化学習問題としてリアルタイム補正を定式化する LLM-CAS を提案する。
- 参考スコア(独自算出の注目度): 11.5874975353231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) often generate hallucinated content that lacks factual or contextual grounding, limiting their reliability in critical applications. Existing approaches such as supervised fine-tuning and reinforcement learning from human feedback are data intensive and computationally expensive, while static parameter editing methods struggle with context dependent errors and catastrophic forgetting. We propose LLM-CAS, a framework that formulates real-time hallucination correction as a hierarchical reinforcement learning problem. LLM-CAS trains an agent to learn a policy that dynamically selects temporary neuron perturbations during inference based on the current context. Unlike prior dynamic approaches that rely on heuristic or predefined adjustments, this policy driven mechanism enables adaptive and fine grained correction without permanent parameter modification. Experiments across multiple language models demonstrate that LLM-CAS consistently improves factual accuracy, achieving gains of 10.98 percentage points on StoryCloze, 2.71 points on TriviaQA, and 2.06 points on the MC1 score of TruthfulQA. These results outperform both static editing methods such as ITI and CAA and the dynamic SADI framework. Overall, LLM-CAS provides an efficient and context aware solution for improving the reliability of LLMs, with promising potential for future multimodal extensions.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしば、現実的または文脈的な基盤を欠いた幻覚的コンテンツを生成し、重要なアプリケーションにおける信頼性を制限する。
教師付き微調整や人間からのフィードバックからの強化学習といった既存のアプローチは、データ集約的で計算コストが高く、静的パラメータ編集手法は、コンテキスト依存のエラーや破滅的な忘れに悩まされている。
本稿では,リアルタイム幻覚補正を階層的強化学習問題として定式化する LLM-CAS を提案する。
LLM-CASはエージェントに、現在の状況に基づいて推論中に一時的なニューロン摂動を動的に選択するポリシーを学ぶよう訓練する。
ヒューリスティックあるいは事前定義された調整に依存する従来の動的アプローチとは異なり、このポリシー駆動機構は、恒久的なパラメータ修正なしに適応的かつきめ細かい修正を可能にする。
複数の言語モデルにわたる実験により、LCM-CASは、StoryClozeで10.98ポイント、TriviaQAで2.71ポイント、TruthfulQAでMC1スコアで2.06ポイントを獲得した。
これらの結果は、ITIやCAAのような静的編集手法と動的SADIフレームワークの両方に優れる。
全体として、LLM-CASはLLMの信頼性を向上させるための効率的でコンテキスト対応のソリューションであり、将来的なマルチモーダル拡張の可能性も期待できる。
関連論文リスト
- Beyond Static LLM Policies: Imitation-Enhanced Reinforcement Learning for Recommendation [23.945049006150555]
大規模言語モデル(LLM)は、多様なデジタルプラットフォームにまたがってパーソナライズされたコンテンツを配信することによって、ユーザエンゲージメントを高める重要なツールとなっている。
LLMを主要なレコメンデーションポリシとして直接デプロイすることは、永続的なレイテンシの問題を含む、注目すべき課題を提示する。
本稿では,LLM生成軌道からの模倣学習を利用した新しいオフライン強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-15T07:28:29Z) - HCRMP: A LLM-Hinted Contextual Reinforcement Learning Framework for Autonomous Driving [4.340881027724334]
強化学習(RL)を備えた大規模言語モデル(LLM)は、複雑なシナリオにおける自律運転(AD)のパフォーマンスを向上させることができる。
現状のLCMは、本質的な運転関連タスクで評価された場合、約57.95%の非幻覚率を示す。
本稿では,LLMとRLの相対的な独立性を維持することが幻覚問題の解決に不可欠であると主張している。
論文 参考訳(メタデータ) (2025-05-21T17:47:24Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Iter-AHMCL: Alleviate Hallucination for Large Language Model via Iterative Model-level Contrastive Learning [16.883679810267342]
幻覚に対処するための反復モデルレベルのコントラスト学習(Iter-AHMCL)
本稿では,幻覚に対処するイテレーティブモデルレベルのコントラスト学習(Iter-AHMCL)を提案する。
論文 参考訳(メタデータ) (2024-10-16T00:15:40Z) - CoMMIT: Coordinated Multimodal Instruction Tuning [90.1532838391285]
マルチモーダル大言語モデル(MLLM)は一般に、バックボーンLLMと非テキスト入力モードの特徴エンコーダ間の協調学習を含む。
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
本稿では,学習のバランスを定量的に測定できるマルチモーダルバランス係数を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Course-Correction: Safety Alignment Using Synthetic Preferences [17.897817682322053]
定量的評価のためのtextscC$2$-Eval ベンチマークを導入し,10のポピュラー言語モデルを解析する。
自動パイプラインを使用して、750Kペアの好みを持つ合成データセットであるtextscC$2$-Synを作成する。
2つのLLM, textscLlama2-Chat 7B と textscQwen2 7B の実験により, 一般性能に影響を与えることなく, 効果的にコース補正能力を向上させることができた。
論文 参考訳(メタデータ) (2024-07-23T16:54:28Z) - Model Surgery: Modulating LLM's Behavior Via Simple Parameter Editing [63.20133320524577]
パラメータの小さなサブセットを編集することで、大きな言語モデル(LLM)の特定の振る舞いを効果的に調節できることを示す。
我々の手法は、RealToxicityPromptsデータセットで最大90.0%の毒性を減少させ、ToxiGenで49.2%を達成する。
論文 参考訳(メタデータ) (2024-07-11T17:52:03Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。